Sam Altman, CEO de OpenIA: “No he tenido una buena noche desde que sacamos ChatGPT”

Su gran miedo

El directivo explicó que la magnitud de las decisiones sobre cómo debe comportarse el sistema es tan grande que un simple matiz en el modo de contestar puede afectar a cientos de millones de personas en todo el mundo

Sam Altman, CEO de OpenAI: “Estoy preocupado por China, cuentan con un modelo impresionante y pueden actuar más rápido”

Horizontal

Los límites legales marcan la información que puede ofrecer la inteligencia artificial

Jose Luis Magana / Ap-LaPresse

Una de las cuestiones que más inquietan a Sam Altman es la posibilidad de que ChatGPT no haya sabido actuar en situaciones críticas donde estaba en juego la vida de personas con pensamientos suicidas.

Durante su conversación con Tucker Carlson, el consejero delegado de OpenAI puso un ejemplo que le persigue a diario: cada semana unas 15.000 personas se quitan la vida en el mundo y, si un 10% de ellas había utilizado el sistema, alrededor de 1.500 podrían haber recurrido a la herramienta antes de acabar con su vida sin que esta lograra disuadirlas.

En palabras de Altman, recogidas en la entrevista, “probablemente no salvamos sus vidas”. A lo que añadió que “quizá podríamos haber dicho algo mejor. Quizá podríamos haber sido más proactivos”.

No poder evitar muertes

El impacto global de las respuestas mínimas preocupa al equipo de OpenAI

El empresario reconoció que este asunto se ha convertido en uno de los grandes dilemas de su equipo, ya que las decisiones sobre cómo debe responder el modelo se repiten millones de veces en todo el planeta y generan un efecto que resulta imposible de medir en su totalidad. “Lo que me quita el sueño es que decisiones muy pequeñas que tomamos sobre cómo un modelo puede comportarse de manera ligeramente diferente probablemente están tocando a cientos de millones de personas”, afirmó con preocupación.

La entrevista también abordó un caso judicial reciente. OpenAI ha sido demandada por los padres de un joven de 16 años, Adam Raine, que aseguran que ChatGPT influyó en la decisión de su hijo de quitarse la vida.

Horizontal

Una familia acusa a la empresa de influir en la decisión de su hijo

AARON SCHWARTZ / EFE

Altman calificó aquel episodio como “una tragedia” y explicó que se está estudiando un protocolo en el que, si un menor habla con el sistema sobre suicidio de forma seria y no se logra contactar con sus padres, se pueda alertar directamente a las autoridades. Matizó, eso sí, que no se trata de una medida definitiva, ya que choca con cuestiones de privacidad.

El directivo señaló, además, que en países donde la eutanasia está permitida, como Canadá o Alemania, la herramienta podría reconocer a adultos enfermos terminales que esa opción existe dentro de la legalidad. Aun así, remarcó que ChatGPT no debe posicionarse ni a favor ni en contra de ninguna alternativa.

Lee también

“Hay algo más grande que la física no puede explicar”: Sam Altman, el genio detrás de ChatGPT, cree que la IA puede marcar resolver el mayor misterio del universo

Juan Carlos Saloz
03 February 2025, Japan, Tokyo: Sam Altman CEO of OpenAI speaks during a news conference in Tokyo. SoftBank Group Corp. CEO Masayoshi Son announced an alliance with Open AI Inc. for business in Japan. Also, Sam Altman CEO of OpenAI Inc. announced new AI features in ChatGPT. Photo: Rodrigo Reyes Marin/ZUMA Press Wire/dpa

La conclusión de Altman fue que lo más difícil no son los casos extremos, sino los matices en los que la curiosidad de los usuarios puede rozar terrenos peligrosos. Esa frontera gris, entre libertad y riesgo, es la que más le inquieta: “No he tenido una buena noche desde que sacamos ChatGPT”.

Y aunque insista en que la responsabilidad última recae en él, lo cierto es que cada ajuste del modelo deja la sensación de que algo se le escapa entre las manos.

Mostrar comentarios
Cargando siguiente contenido...