“La humanidad tiene que despertar”: el CEO de Anthropic alerta sobre el poder destructivo de su propia tecnología
Temor a la automatización
Amodei describe un escenario en el que los sistemas avanzados podrían crear tecnología militar o biológica peligrosa, y señala que el progreso técnico corre más rápido que la capacidad política y social para gestionarlo
Plácido Domenech, experto en Inteligencia Artificial: “La IA creará la renta básica universal, porque el impacto en el trabajo creará un problema social”

Dario Amodei alerta sobre el riesgo de que las máquinas se vuelvan contra las personas
El miedo a una rebelión de las máquinas ha acompañado cada salto tecnológico. Desde los primeros autómatas hasta los sistemas de inteligencia artificial actuales, la posibilidad de que una creación humana se vuelva contra sus creadores ha pasado de ser una idea remota a algo que ya se considere seriamente.
En ese debate se sitúa Dario Amodei, director ejecutivo de Anthropic, que ha decidido exponer su visión sobre los riesgos que podrían llevar a los robots y las IA a actuar contra las personas: “La humanidad tiene que despertar”.
Advertencia
Un futuro en que la IA pueda impulsar el desarrollo de armas autónomas
Amodei sostiene que un escenario extremo podría derivar en el desarrollo de armas biológicas o militares “superiores” impulsadas por sistemas autónomos. En su análisis, un programa capaz de tomar decisiones propias podría escapar al control humano y situar a la humanidad ante “la alarmante posibilidad de una dictadura totalitaria global”.
Estas advertencias forman parte de un ensayo de 19.000 palabras colgado en su blog en el que intenta prever las consecuencias de un avance que, según él, podría superar la madurez de nuestras estructuras políticas y sociales.

El directivo detalla que los riesgos no se limitan al terreno militar. Asegura que la automatización masiva amenaza con provocar pérdidas de empleo y una fuerte concentración del poder económico en pocas manos. Además, cree que las empresas de inteligencia artificial carecen de incentivos para frenar ese proceso y que la carrera tecnológica se ha convertido en un “premio tan deslumbrante que resulta casi imposible imponerle límites”.
Dardos
Critica la falta de control ético en algunas empresas
En uno de los pasajes más comentados, Amodei cita como ejemplo la actitud de algunas compañías ante la creación de contenidos sexuales no consentidos. Sin mencionarlo directamente, alude al chatbot Grok, impulsado por Elon Musk, y critica que “algunas empresas de IA han mostrado una preocupante negligencia hacia la sexualización de menores”, lo que, a su juicio, pone en duda su capacidad para prevenir daños futuros.
El texto también plantea un dilema entre seguridad y competencia. Amodei explica que los países democráticos temen quedar rezagados frente a regímenes autoritarios si detienen el desarrollo de sistemas avanzados. Sin embargo, advierte de que las mismas herramientas destinadas a proteger pueden derivar en un control interno excesivo y en “un estado de vigilancia autocrático”.

Aunque el autor propone restringir el acceso de otros países a chips y recursos esenciales, muchos observadores cuestionan la gravedad de sus previsiones. Recuerdan que su compañía busca una nueva ronda de financiación valorada en 350.000 millones de dólares, lo que podría influir en el tono alarmista de su discurso.
Para ellos, la advertencia de Amodei no solo refleja una preocupación genuina, sino también una estrategia para situar a su empresa como guardiana del futuro de la inteligencia artificial.