El filósofo e historiador Yuval Noah Harari, una de las voces más notorias sobre el futuro de la humanidad, advierte de nuevo sobre los riesgos inéditos que plantea la inteligencia artificial, la primera tecnología en la historia humana con capacidad para tomar decisiones y generar ideas sin intervención directa del ser humano. En una entrevista reciente con la periodista sueca Jessica Gedin, Harari explica que, a diferencia de otras invenciones como la bomba atómica, que siempre necesita una decisión humana, la IA ya no es una simple herramienta sino un “agente independiente” que puede evolucionar autónomamente. “Es como una bomba nuclear capaz de inventar bombas nucleares más potentes”, afirma.
Hay escenarios futuros peligrosos, pero aún tenemos el poder para evitarlos
Un futuro donde la IA podría dominar la burocracia de la vida diaria
El autor israelí no augura un futuro cierto, cuando menos abundante: “La IA nos podría dar la mejor salud de la historia o crear el arma nuclear más destructiva nunca vista”. A pesar de esta afirmación tan alarmante, Harari considera poco probable que el futuro sea parecido a lo que muestran películas como Matrix o Terminator, donde la IA se rebela violentamente contra la humanidad. En cambio, alerta sobre una amenaza más sutil y profunda: la proliferación de millones de agentes digitales integrados en gobiernos, ejércitos y empresas, tomando decisiones, cruciales sobre nuestras vidas sin que podamos entender el proceso. “No solo perderemos poder, también perderemos la capacidad de comprender cómo funciona el mundo”, reflexiona.

Yuval Noah Harari durante una conferencia en el Foro Chino de Desarrollo este abril de 2025.
El autor de Nexus o Sápiens también recuerda que la historia demuestra como las revoluciones tecnológicas anteriores, como la revolución industrial o la aparición de internet, han comportado periodos largos de experimentación social destructiva, como el imperialismo, el fascismo o el comunismo, antes de encontrar formas estables de sociedad. Por eso insiste en que es urgente regular ahora la inteligencia artificial para evitar repetir estos errores históricos: “No nos podemos permitir otro ciclo de totalitarismo, imperialismo o guerras mundiales”.
A pesar de todo, Harari parece mantener una actitud prudentemente realista. El alabado historiador considera que la humanidad todavía tiene los recursos, la tecnología y la sabiduría necesaria para hacer frente a retos globales tan críticos como el cambio climático o el desarrollo ético de la IA. Concluye: “Todavía estamos a tiempo de evitar los peores escenarios. Es responsabilidad nuestra decidir hacia dónde dirigimos esta evolución tecnológica”.