Internacional

El Pentagono amenaza a Anthropic porque se opone al uso de su IA para el desarrollo de armas

Ciberguerra

El ejército utilizó la herramienta Claude de esa empresa en la captura de Nicolás Maduro y esto tensionó las relaciones porque los militares no respetaron las protecciones establecidas al usar fuego real y causar muertos

Dario Amodei, cofundador de Anthropic y director ejecutivo de la empresa de inteligencia artificial, se ha convertido en una de las voces que alerta del peligro por el mal uso de la IA 

Dario Amodei, cofundador de Anthropic y director ejecutivo de la empresa de inteligencia artificial, se ha convertido en una de las voces que alerta del peligro por el mal uso de la IA 

Samyukta Lakshmi / Bloomberg

En la sede central de Anthropic, empresa de investigación y desarrollo de inteligencia artificial (IA) dirigida por Dario Amodei, se encuentran en plena relectura de una frase atribuida a Albert Einstein,

“No sé con qué armas se peleará la tercera guerra mundial, pero la cuarta será con palos y piedras”, dicen que sostuvo en 1949 el físico que jugó un papel decisivo en el avance hacia la bomba nuclear.

A Amodei y su equipo, centrados en el presente, les asusta la tercera guerra mundial y que, como le sucedió a Einstein, sus propios avances en IA lleven a la destrucción del planeta, independientemente incluso del deseo de los humanos por evitar un conflicto que supondría una destrucción total del planeta.

Si un meteorito acabó con los dinosaurios, la IA tiene el potencial para aniquilar a la humanidad, sin remordimientos.

El Pentágono amenazó, según informes, con poner fin a su contrato de 200 millones de dólares con Anthropic después de que esta empresa se negara a permitir que sus herramientas se utilizaran en armas autónomas y vigilancia masiva. Las fuerzas armadas de Estados Unidos quieren que los laboratorios de IA le permitan usar sus modelos “para todos los fines legales”.

El secretario de Defensa, Pete Hegseth, está cerca de cortar las relaciones comerciales con Anthropic y designar a la empresa de IA como un “riesgo para la cadena de suministro”, explicó este lunes el medio on line Axios. Esto significa que cualquiera que quiera hacer negocios con las tropas militares estadounidenses tendrá que romper lazos con esa empresa.

En medio de una creciente preocupación por la rapidez con que la IA evoluciona y se exhibe capaz de superar al pensamiento humano, Amodei se toma estos asuntos muy en serio, si bien es un pragmático. La firma Anthropic está dispuesta a flexibilizar sus actuales términos de uso, pero quiere asegurarse de que sus herramientas no sirvan para espiar a los estadounidenses de forma masiva ni para desarrollar armas que funcionen sin intervención humana.

La realidad se parece cada vez más a la ciencia ficción. Aquella inteligencia artificial llamada Hal 900, en el libro y película 2001, una odisea del espacio, ha dejado de ser el fruto de la imaginación y se acerca a lo cotidiano.

La IA tiene una creciente presencia en defensa y los principales proveedores comerciales permiten su uso en labores no clasificadas, como generar informes y ayudar en los flujos de trabajo. Su uso en el combate real es controvertido, pero probablemente inevitable: enjambres de drones impulsados por IA están cerca de utilizarse en el campo de batalla, como se experimenta en la guerra de Ucrania, mientras que los aviones de combate pilotados por humanos pronto tendrán compañeros leales no tripulados, controlados por IA, volando a su lado, recalcaron los expertos.

De hecho, la tensión entre el Pentagono y la citada empresa se disparó después de que el ejército de EE.UU. Recurrió a la herramienta Claude de Anthropic en la operación para capturar al presidente de Venezuela, Nicolás Maduró, el pasado 3 de enero.

Claude fue desplegado a través de la asociación de Anthropic con la empresa de datos Palantir Technologies, cuyas herramientas son ampliamente usadas por el Departamento de Defensa y las fuerzas federales de seguridad pública, como se demostró en la represión paramilitar en las redadas anti inmigración de Minneapolis.

Según indicaron fuentes de Defensa al The Wall Street Journal, un alto ejecutivo de Anthropic se puso en contacto con colegas de Palantir para cuestionarles si Claude había sido utilizada en el secuestro de Maduro. “Se planteó de una manera que implicaba que podrían desaprobar el uso de su software, porque obviamente hubo fuego real durante esa operación, y hubo personas que recibieron impactos de bala”, recalcaron esas fuentes.

Las directrices de uso de Anthropic prohíben que Claude se use en casos de violencia, el desarrollo de armas o la vigilancia. Estas protecciones son las que el Hegseth persigue que se eliminen.

“El Departamento de Guerra está revisando sus relaciones con Anthropic. Nuestra nación requiere que nuestros asociados sean capaces de ayudar a nuestros militares a ganar en cualquier guerra. En última instancia, se trata de nuestras tropas y de la seguridad del pueblo estadounidense”, respondió Sean Parnell, portavoz del Pentagono.

Aunque negocian con OpenAI, Google y xAI, Claude de Anthropic es el único modelo de IA actualmente disponible en los sistemas clasificados del ejército y es el líder mundial en muchas aplicaciones empresariales. Los funcionarios del Pentágono hablan con entusiasmo sobre las capacidades de esa herramienta.

Un alto mando militar dijo a Axios sobre esa disputa por el acuerdo con Anthropic: “Será un enorme dolor de cabeza deshacerlo y vamos a asegurarnos de que paguen un precio por obligarnos a actuar así”.

Francesc Peiron Arques

Francesc Peiron Arques

Corresponsal de 'Guyana Guardian' en Nueva York

Ver más artículos