La escena tiene todas las papeletas para un guion de Hollywood y, tarde o temprano, lo será: estamos en mayo de 2023 y Sam Altman, el joven CEO de OpenAI, comparecía ante el Senado de Estados Unidos con un semblante grave. No estaba allí para celebrar el éxito global de su creación, ChatGPT, sino para lanzar una solemne advertencia que congelaría la sala y rápidamente se extendería por todo el mundo.
Con calma, Altman confesó sus peores temores sobre la tecnología que él mismo había desatado, admitiendo que, si las cosas se torcían, la inteligencia artificial podría “causar un daño significativo al mundo”. ¿Por qué estaba diciendo eso de su propio invento?
La frase, pronunciada ante el poder político, no era un desliz, sino el pistoletazo de salida de una nueva era en la que el miedo se convertiría en la principal moneda de cambio en la batalla por el futuro. A partir de ahí, el argumentario se viralizó: era útil para los promotores de la IA, pero también —y sobre todo— para sus detractores.
Frente a la confesión, pronto reforzada por declaraciones que equiparaban la IA a una guerra nuclear, una voz disonante se elevó en el corazón mismo de la industria. Yann LeCun, jefe de IA en Meta y uno de los pioneros del aprendizaje profundo, calificó el alarmismo de “absurdo”. Para LeCun, la histeria sobre robots asesinos ocultaba una agenda mucho más terrenal y peligrosa: consolidar un poder.
Sam Altman, CEO de OpenAI.
During a public discussion with his peers, he cautioned that alarm would only aid those aiming to impede rivalry. His apprehension, as he articulated it, is that regulations stemming from this fear will ensure “un pequeño número de compañías controlará la IA”, establishing insurmountable obstacles for the open-source community and nascent businesses. In essence, Altman's declaration wasn't truly about the perils of his creation, but rather about halting competitors.
A chorus of concern was joined by a voice carrying particular moral authority: Geoffrey Hinton, universally recognized as the “padrino” of contemporary AI. After stepping down from his role at Google to speak freely, Hinton lent unprecedented scientific credibility to the doomsday narrative.
There's a 10% or 20% chance that AI will "lead to the extinction of humanity in the coming decades."
Sus declaraciones a la BBC impactaron a la comunidad internacional, no por su vaguedad, sino por su escalofriante precisión. El hombre que había dedicado su vida a construir los cimientos de esta tecnología confesó que estimaba en “un 10% o 20%” las probabilidades de que la IA “lleve a la extinción de la humanidad en las próximas décadas”. El padrino se había arrepentido, y su advertencia legitimó un pánico que hasta entonces había habitado en los márgenes de la ciencia ficción.
Furthermore, this narrative is perceived by a growing assembly of experts and scholars not as a prophecy, but as a significant diversion. Researchers such as Meredith Whittaker and Emily M. Bender have for years been highlighting what they term safety washing: the utilization of hypothetical and future dangers to steer focus away from the very tangible and current harms.
Geoffrey Hinton, Premio Nobel de Física 2024 y padrino de la IA.
The exploitation of thousands of content moderators, algorithmic biases that uphold discrimination, and the substantial environmental toll of training these models are recognized issues that are being sidelined. As an analysis in the publication The Atlantic concluded, “las historias de máquinas malévolas son una distracción de los problemas que la IA ya está creando”. This is akin to stating that if we are concerned about the future, we will do little to influence the present.
Regardless, no one has embodied apocalyptic hyperbole with more intensity than Elon Musk. Long before ChatGPT's surge, the Tesla and SpaceX mogul was already employing near-religious rhetoric to warn of dangers, likening AI development to “invocar al demonio”. His impact was instrumental in embedding the notion within the collective consciousness that this technology wasn't merely a tool, but an existential force.
It could pose a greater threat than nuclear weapons.
In one of his most notable statements, Musk plainly stated that we needed to be extremely cautious, as AI was “potencialmente más peligrosa que las bombas nucleares”. This frequently echoed comparison elevated the discussion from the technical realm to the theological, portraying its developers as sorcerers' apprentices tampering with humanity's fate.
Beyond comparisons to demons and nuclear weapons, other top-tier specialists suggest a dose of realism. Andrew Ng, co-founder of Google Brain and one of the most respected figures in the field, has openly mocked concerns about a malevolent superintelligence. For Ng, fixating on a future where an all-powerful AI rebels is as premature as it is absurd.
Yann LeCun, excientífico jefe de IA en Meta.
In a widely recognized ironic metaphor, he likened this apprehension to “preocuparse por la sobrepoblación en Marte”. His point is unambiguous: pressing, tangible issues on Earth demand our attention before we become engrossed in dystopian fantasies about extraterrestrial settlements or artificial intelligence uprisings.
En resumen, todo el alboroto del debate apocalíptico corre el riesgo de ahogar una discusión más importante. Mientras los gigantes tecnológicos debaten en cumbres mundiales sobre cómo prevenir un futuro al estilo Terminator, los problemas actuales se multiplican. La disputa subyacente parece ser entre dos enfoques de regulación: uno llamativo, enfocado en gobernar entidades de ciencia ficción que todavía no son una realidad, y otro mucho más práctico, centrado en la protección de datos, la claridad de los algoritmos y la rendición de cuentas por los perjuicios presentes.
As researcher Julia Powles noted, summarizing the sentiment of many critics: “Necesitamos regulación de IA, pero la que necesitamos es mundana”. This is akin to suggesting the actual danger isn't machines becoming overly intelligent, but rather humans growing excessively inattentive.
Antonio J. Rodríguez works as a journalist, author, and former editor-in-chief at PlayGround. He has authored the books El Dios Celoso, La nueva masculinidad de siempre, Candidato, Vidas perfectas, El principio de incompetencia, and Fresy Cool. Furthermore, he established the tech startup Alighieria and the digital strategy agency rrrrrrefugio.



