Neo

Sam Altman, CEO de OpenAI: “Quizá deberíamos quitar un poco de libertad en ChatGPT a personas en situación de fragilidad mental y menores de edad”

IA Y FUTURO

Sam Altman, CEO de OpenAI.

Sam Altman, CEO de OpenAI.

Han pasado ya casi tres años desde que ChatGPT se lanzó al público de forma oficial. Una herramienta basada en Inteligencia Artificial que podía responder a preguntas en solo unos pocos segundos. Desde entonces, la tecnología ha ido avanzando y, con ello, también la plataforma, que actualmente se encuentra en su quinta versión.

Una IA que, por sí sola, es capaz de analizar una pregunta y obtener la mejor respuesta de todo lo que aparece en la red, incluidos algunos temas como el suicidio o la muerte. Esta ha sido la premisa a la que se ha enfrentado el CEO de OpenAI, Sam Altman, en una entrevista publicada en YouTube durante el Programa de Tucker Carlson.

El conductor, así, ha cuestionado al empresario por uno de los casos más famosos de suicidio, en el que la víctima podría haber utilizado ChatGPT antes de fallecer. Aquel caso se saldó con una demanda contra la compañía tecnológica, en la que se le acusaba de haber alentado al joven a terminar con su vida. “Primero que nada, ese y cualquier caso como ese es una gran tragedia”, ha expresado Altman, al respecto.   

¿Cuál es la postura de ChatGPT sobre el suicidio?

El CEO de OpenAI, por su parte, ha confirmado que “la postura oficial de ChatGPT sobre el suicidio es que es malo”. De hecho, en sus propias palabras, cuando un usuario habla de ello con la herramienta, esta le reiterará en múltiples ocasiones que puede buscar ayuda en la línea telefónica habilitada con esa función, aunque no se hará una llamada a las autoridades alertando del problema.

Esta dinámica ha sido muy analizada por los expertos, que muestran opiniones distintas sobre lo que se debe hacer. Para Altman, cada vez más jóvenes recurren a la IA para cuestiones de salud mental y la postura que está adoptando ChatGPT, aunque no es la definitiva, tiende más a llamar a las autoridades en caso de que se hable seriamente de suicidio y no se pueda contactar a los padres.

“Ahora, si le pides a ChatGPT cuánto ibuprofeno tomar, te dirá: ‘no puedo ayudarte’, o en casos graves ‘llama a la línea de suicidio”, ha señalado Altman. Aun así, la herramienta sí podría proporcionar la información en caso de que el usuario especifique que se trata de un escenario ficticio. “Hay formas de que responda a una pregunta así, como la dosis letal o similar”. 

¿Cuál es la solución que aporta Altman?

El problema al que se enfrenta ChatGPT, no obstante, es la vulneración de la privacidad del propio usuario, una premisa en la que este y otros chatbots han trabajado para implementar. “Hay una verdadera disyuntiva entre libertad de privacidad y protección de usuarios”, ha señalado el empresario, que ha incidido en la “protección” de los usuarios “vulnerables”.

Altman, de esta forma, ha abogado por una posible solución al problema del suicidio y las respuestas que proporciona ChatGPT a un usuario cuando plantea ese tipo de cuestiones. “Una postura muy razonable para nosotros, y nos hemos estado moviendo más en esa dirección, es ciertamente para usuarios menores de edad y quizás usuarios que creemos que están lugares frágiles en general. Deberíamos quitarles libertad. Decirles: Incluso si escribes esta historia o investigas no responderemos”, ha sentenciado.

Etiquetas