Una de las cuestiones que más inquietan a Sam Altman es la posibilidad de que ChatGPT no haya sabido actuar en situaciones críticas donde estaba en juego la vida de personas con pensamientos suicidas.
Durante su conversación con Tucker Carlson, el consejero delegado de OpenAI puso un ejemplo que le persigue a diario: cada semana unas 15.000 personas se quitan la vida en el mundo y, si un 10% de ellas había utilizado el sistema, alrededor de 1.500 podrían haber recurrido a la herramienta antes de acabar con su vida sin que esta lograra disuadirlas.
En palabras de Altman, recogidas en la entrevista, “probablemente no salvamos sus vidas”. A lo que añadió que “quizá podríamos haber dicho algo mejor. Quizá podríamos haber sido más proactivos”.
No poder evitar muertes
El impacto global de las respuestas mínimas preocupa al equipo de OpenAI
El empresario reconoció que este asunto se ha convertido en uno de los grandes dilemas de su equipo, ya que las decisiones sobre cómo debe responder el modelo se repiten millones de veces en todo el planeta y generan un efecto que resulta imposible de medir en su totalidad. “Lo que me quita el sueño es que decisiones muy pequeñas que tomamos sobre cómo un modelo puede comportarse de manera ligeramente diferente probablemente están tocando a cientos de millones de personas”, afirmó con preocupación.
La entrevista también abordó un caso judicial reciente. OpenAI ha sido demandada por los padres de un joven de 16 años, Adam Raine, que aseguran que ChatGPT influyó en la decisión de su hijo de quitarse la vida.

Una familia acusa a la empresa de influir en la decisión de su hijo
Altman calificó aquel episodio como “una tragedia” y explicó que se está estudiando un protocolo en el que, si un menor habla con el sistema sobre suicidio de forma seria y no se logra contactar con sus padres, se pueda alertar directamente a las autoridades. Matizó, eso sí, que no se trata de una medida definitiva, ya que choca con cuestiones de privacidad.
El directivo señaló, además, que en países donde la eutanasia está permitida, como Canadá o Alemania, la herramienta podría reconocer a adultos enfermos terminales que esa opción existe dentro de la legalidad. Aun así, remarcó que ChatGPT no debe posicionarse ni a favor ni en contra de ninguna alternativa.
La conclusión de Altman fue que lo más difícil no son los casos extremos, sino los matices en los que la curiosidad de los usuarios puede rozar terrenos peligrosos. Esa frontera gris, entre libertad y riesgo, es la que más le inquieta: “No he tenido una buena noche desde que sacamos ChatGPT”.
Y aunque insista en que la responsabilidad última recae en él, lo cierto es que cada ajuste del modelo deja la sensación de que algo se le escapa entre las manos.