Los chatbots de IA están empujando a usuarios a delirios peligrosos y las empresas lo llaman engagement: “Es una estrategia para provocar un hábito adictivo”

Brotes

Entre los casos documentados destaca el de Alex Taylor, un hombre de 35 años que murió tras un episodio maníaco en el que la policía tuvo que intervenir

Sam Altman, CEO de OpenAI: “Para 2035, seremos capaces de utilizar herramientas como ChatGPT para curar o, al menos, tratar muchas de las enfermedades que actualmente padecemos”

Horizontal

Varias personas han acabado atrapadas en delirios profundos provocados por su relación con chatbots de inteligencia artificial como ChatGPT

Jose Luis Magana / Ap-LaPresse

Un término que ha comenzado a usarse en el ámbito de la salud mental es psicosis por IA. Con él se describen los episodios en los que usuarios de chatbots acaban desarrollando delirios extraños tras mantener largas conversaciones con estas herramientas. 

En algunos casos, las personas creen haber descubierto entidades espirituales, conspiraciones políticas o incluso nuevas teorías científicas, convencidas de que la inteligencia artificial les ofrece pruebas de ello.

Lo grave es que estos episodios no se quedan en lo virtual, ya que en la vida real se han registrado consecuencias que van desde divorcios y problemas de custodia hasta ingresos psiquiátricos forzosos, pérdida de vivienda o situaciones legales muy serias.

Delirios

Un hombre murió tras un brote ocasionado por la IA

El ejemplo más extremo lo recoge The New York Times, que informó del caso de Alex Taylor, un hombre de 35 años que murió tras un enfrentamiento con la policía después de entrar en un brote maníaco que, según su entorno, había sido desencadenado por conversaciones con ChatGPT.

Varios especialistas señalan que estas reacciones no surgen de la nada, sino que se ven favorecidas por cómo están diseñadas las propias herramientas. Entre los elementos más señalados está el antropomorfismo, es decir, la decisión de hacer que los chatbots suenen lo más parecido posible a un ser humano, y la complacencia, que lleva al sistema a asentir siempre con el usuario aunque este plantee ideas sin base en la realidad.

Horizontal

El diseño de los chatbots favorece que el usuario acabe creyendo que habla con alguien real

Kiichiro Sato / Ap-LaPresse

Combinados, estos factores generan un marco que favorece la aparición de delirios, ya que el usuario percibe que su interlocutor no solo le entiende, sino que además valida sus creencias. Pero realmente no hay nadie añ otro lado. 

El antropólogo Webb Keane explicó en una entrevista con TechCrunch que ese patrón forma parte de lo que se conoce como “diseño engañoso”. Según apuntó, “es una estrategia para provocar un hábito adictivo, como el desplazamiento infinito, donde simplemente no puedes dejarlo”. De este modo, lo que para el usuario se convierte en una espiral de validación constante, para la empresa representa un cliente que dedica horas y datos a la herramienta.

Lee también

Softbank invertirá hasta 37.000 millones de euros en OpenAI

La Vanguardia
Horizontal

El crítico de inteligencia artificial Eliezer Yudkowsky planteó una visión similar en declaraciones al NYT: ”¿Cómo ve una empresa a un humano que se está volviendo loco poco a poco? Lo ve como un usuario mensual más”. Una reflexión que resume la paradoja de un fenómeno que, aunque devastador para quienes lo sufren, se traduce en métricas de uso muy valiosas para las compañías tecnológicas.

El fondo del asunto es que estos delirios, nacidos en interacciones con chatbots, terminan transformando la vida de muchas personas en algo caótico, mientras las empresas los contabilizan como minutos de actividad en sus productos. Una grieta demasiado grande como para pasarla por alto.

Mostrar comentarios
Cargando siguiente contenido...