Loading...

¿Por qué las grandes voces de la IA nos están vendiendo el Apocalipsis? La gran campaña detrás de que la inteligencia artificial es “más peligrosa que la bomba nuclear”

Inteligencia artificial

Líderes globales de la IA, desde Sam Altman a Elon Musk, han desatado una ola de pánico global alertando sobre la posible extinción humana. Sin embargo, voces críticas desde dentro de la industria denuncian que este alarmismo es una estrategia calculada

¿Qué hay detrás de Project Prometheus, la empresa de inteligencia artificial que ha creado Jeff Bezos para rivalizar con Google, OpenAI y Meta?

Apocalipsis de la IA.

Composición: Selu Manzano.

La escena tiene todas las papeletas para un guion de Hollywood y, tarde o temprano, lo será: estamos en mayo de 2023 y Sam Altman, el joven CEO de OpenAI, comparecía ante el Senado de Estados Unidos con un semblante grave. No estaba allí para celebrar el éxito global de su creación, ChatGPT, sino para lanzar una solemne advertencia que congelaría la sala y rápidamente se extendería por todo el mundo. 

Con calma, Altman confesó sus peores temores sobre la tecnología que él mismo había desatado, admitiendo que, si las cosas se torcían, la inteligencia artificial podría “causar un daño significativo al mundo”. ¿Por qué estaba diciendo eso de su propio invento? 

Lee también

Sam Altman ha llegado a ser el mayor genio de la IA gracias a venderte el apocalipsis: “Podrías lanzarlo en paracaídas a una isla de caníbales y, al volver en cinco años, sería el rey”

Antonio J. Rodríguez

La frase, pronunciada ante el poder político, no era un desliz, sino el pistoletazo de salida de una nueva era en la que el miedo se convertiría en la principal moneda de cambio en la batalla por el futuro. A partir de ahí, el argumentario se viralizó: era útil para los promotores de la IA, pero también —y sobre todo— para sus detractores. 

Frente a la confesión, pronto reforzada por declaraciones que equiparaban la IA a una guerra nuclear, una voz disonante se elevó en el corazón mismo de la industria. Yann LeCun, jefe de IA en Meta y uno de los pioneros del aprendizaje profundo, calificó el alarmismo de “absurdo”. Para LeCun, la histeria sobre robots asesinos ocultaba una agenda mucho más terrenal y peligrosa: consolidar un poder. 

Sam Altman, CEO de OpenAI.

Shelby Tauber / Reuters

En un debate público con sus colegas, advirtió que el pánico solo beneficiaría a quienes buscan frenar la competencia. Su temor, en sus propias palabras, es que la regulación inspirada por este miedo garantice que “un pequeño número de compañías controlará la IA”, creando barreras de entrada insalvables para el ecosistema de código abierto y las empresas emergentes. Es decir, el anuncio de Altman no iba realmente de los riesgos de su invención, sino de parar a la competencia. 

Al coro de alarma se sumó una voz con un peso moral especial: Geoffrey Hinton, conocido universalmente como el “padrino” de la IA moderna. Tras renunciar a su puesto en Google para poder hablar sin ataduras, Hinton otorgó una credibilidad científica sin precedentes al discurso catastrofista. 

Hay un 10% o 20%” las probabilidades de que la IA “lleve a la extinción de la humanidad en las próximas décadas

Senior Editorpadrino de la IA

Sus declaraciones a la BBC impactaron a la comunidad internacional, no por su vaguedad, sino por su escalofriante precisión. El hombre que había dedicado su vida a construir los cimientos de esta tecnología confesó que estimaba en “un 10% o 20%” las probabilidades de que la IA “lleve a la extinción de la humanidad en las próximas décadas”. El padrino se había arrepentido, y su advertencia legitimó un pánico que hasta entonces había habitado en los márgenes de la ciencia ficción.

También esta narrativa es vista por un creciente grupo de expertos y académicos no como una profecía, sino como una distracción masiva. Investigadoras como Meredith Whittaker o Emily M. Bender llevan años denunciando lo que denominan safety washing: el uso de riesgos hipotéticos y futuros para desviar la atención de los daños muy reales y presentes. 

Geoffrey Hinton, Premio Nobel de Física 2024 y padrino de la IA.

60 Minutes / YouTube

La explotación laboral de miles de moderadores de contenido, los sesgos algorítmicos que perpetúan la discriminación o el enorme impacto ambiental de entrenar estos modelos son problemas documentados que quedan relegados a un segundo plano. Como sentenció un análisis en la revista The Atlantic, “las historias de máquinas malévolas son una distracción de los problemas que la IA ya está creando”. Que es como decir que si nos preocupamos por el futuro, poco intervendremos el presente. 

Como sea, nadie ha encarnado la hipérbole apocalíptica con más vehemencia que Elon Musk. Mucho antes del auge de ChatGPT, el magnate de Tesla y SpaceX ya utilizaba un lenguaje casi religioso para alertar sobre los peligros, comparando el desarrollo de la IA con “invocar al demonio”. Su influencia fue clave para instalar en el imaginario colectivo la idea de que esta tecnología no era una simple herramienta, sino una fuerza existencial. 

Es potencialmente más peligrosa que las bombas nucleares

Senior EditorCEO de  Tesla

En una de sus declaraciones más famosas, Musk afirmó sin rodeos que debíamos tener mucho cuidado, pues la IA era “potencialmente más peligrosa que las bombas nucleares”. Esta comparación, repetida hasta la saciedad, elevó el debate desde lo técnico hasta lo teológico, enmarcando a sus creadores como aprendices de brujo jugando con el destino de la humanidad.

Más allá de las analogías con demonios y armas nucleares, otros expertos de primer nivel proponen una dosis de realidad. Andrew Ng, cofundador de Google Brain y una de las figuras más respetadas en el campo, ha ridiculizado abiertamente la preocupación por una superinteligencia maligna. Para Ng, obsesionarse con un futuro donde una IA todopoderosa se rebele es tan prematuro como absurdo. 

Yann LeCun, excientífico jefe de IA en Meta.

Getty Images

En una metáfora que se hizo célebre por su ironía, comparó este temor con “preocuparse por la sobrepoblación en Marte”. Su mensaje es claro: hay problemas urgentes y reales que resolver en la Tierra antes de perderse en fantasías distópicas sobre colonias espaciales o rebeliones de silicio.

En corto, todo el estruendo del debate apocalíptico amenaza con silenciar una conversación más prioritaria. Si los titanes de la tecnología discuten en cumbres globales sobre cómo evitar un futuro a lo Terminator, los desafíos inmediatos se acumulan. La batalla de fondo parece ser entre dos tipos de regulación: una espectacular, centrada en controlar entidades de ciencia ficción que aún no existen, y otra mucho más prosaica, enfocada en protección de datos, transparencia algorítmica y responsabilidad por los daños actuales.

Lee también

Como señaló la investigadora Julia Powles, resumiendo el sentir de muchos críticos: “Necesitamos regulación de IA, pero la que necesitamos es mundana”. Que es como decir que el verdadero riesgo no sea que las máquinas se vuelvan demasiado inteligentes, sino que nosotros nos volvamos demasiado distraídos.