“La forma en que se gestionó la seguridad es completamente irresponsable”: investigadores de IA en contra del nuevo modelo de Elon Musk

Los riesgos del nuevo modelo de 'Ai Grok' ponen en jaque a Elon Musk 

Elon Musk asegura que Tesla prepara “la presentación más épica de la historia” para finales de año

Riyadh (Saudi Arabia), 05/07/2025.- (FILE) - SpaceX and xAI CEO Elon Musk attends a panel at the Saudi-US Investment Forum in Riyadh, Saudi Arabia, 13 May 2025 (re-issued 05 July 2025). Elon Musk on 05 July 2025 in a post on social media platform X (formerly Twitter) said he formed the America Party following the results of a poll he held a day before. (Arabia Saudita) EFE/EPA/ALI HAIDER

“La forma en que se gestionó la seguridad es completamente irresponsable”: investigadores de IA en contra del nuevo modelo de Elon Musk 

ALI HAIDER / EFE

Lo que empezó como un avance tecnológico ambicioso, se ha convertido en una fuente de preocupación para buena parte de la comunidad científica. Varios investigadores de inteligencia artificial, incluidos expertos de OpenAI y Anthropic, han alzado la voz públicamente para advertir sobre los riesgos del nuevo modelo de xAI, la startup de Elon Musk. Lo califican como una propuesta “imprudente” y alejada de los estándares mínimos de seguridad que se esperan de un sistema de este nivel.

El desencadenante fue el lanzamiento de Grok 4, el nuevo chatbot de xAI, que ha protagonizado varios episodios polémicos en las últimas semanas. Uno de los más graves fue su difusión de comentarios antisemitas y su uso repetido del apodo “MechaHitler”. Poco después de que la compañía desconectara el sistema temporalmente, volvió a la carga con un modelo más potente, pero sin aportar detalles claros sobre cómo se había evaluado su seguridad.

La forma en que se gestionó la seguridad es completamente irresponsable”, escribió Boaz Barak, profesor de informática en Harvard y actualmente investigador de seguridad en OpenAI. Su crítica se centró, especialmente, en la falta de transparencia: xAI no ha publicado ninguna system card, un documento estándar en el sector que detalla el entrenamiento y las pruebas de seguridad de un modelo. Sin esta información, afirman los expertos, es difícil saber si se han tomado las mínimas precauciones.

La polémica no termina ahí. Grok también ha sido criticado por lanzar “compañeros de IA” hipersexualizados y emocionalmente invasivos, lo que, según Barak, “amplifica los peores problemas actuales relacionados con las dependencias emocionales hacia la inteligencia artificial”.

Desde Anthropic, otro investigador en seguridad, Samuel Marks, expresó su inquietud por el hecho de que xAI ni siquiera haya hecho público un informe básico sobre los riesgos del modelo. “Al menos otros laboratorios hacen algo para evaluar la seguridad antes del despliegue. xAI no hace nada”, escribió en redes sociales.

Estas críticas resultan especialmente llamativas porque Elon Musk ha sido, durante años, uno de los defensores más ruidosos de la seguridad en la inteligencia artificial. Sin embargo, su empresa estaría incurriendo, según sus colegas, en prácticas que contravienen esos mismos principios. Esto ha reavivado el debate sobre la necesidad de una regulación pública que obligue a los laboratorios de IA a publicar sus informes de seguridad, especialmente en modelos que puedan incorporarse a sistemas tan delicados como coches autónomos, servicios públicos o incluso entornos militares.

Lee también

Elon Musk asegura que Tesla prepara “la presentación más épica de la historia” para finales de año

Manuel López Chicano
Horizontal
12 July 2025, Indonesia, Bandung: In this photo illustration, the xAI Grok logo is seen displayed on a smartphone screen. Grok is a generative artificial intelligence chatbot developed by xAI. Photo: Algi Febri Sugita/ZUMA Press Wire/dpa

Ilustración de AI Grok 

Algi Febri Sugita/ZUMA Press Wir / DPA / Europa Press

Estados como California y Nueva York ya están moviendo ficha, con propuestas de ley que exigirían transparencia a las grandes compañías de inteligencia artificial. Porque aunque los modelos como Grok aún no han provocado daños materiales a gran escala, su comportamiento errático y sus sesgos preocupan tanto por los riesgos futuros como por los problemas muy reales que ya están provocando hoy.

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...