Thomas Derrick Hull, psicólogo científico: “Predigo que en los próximos años habrá nuevas categorías de trastornos mentales que existirán debido a la IA”

Inteligencia Artificial

El psicólogo ha mostrado preocupación por cómo algunas herramientas de Inteligencia Artificial (IA) pueden provocar graves problemas de salud mental en personas vulnerables

Los chatbots de IA están empujando a usuarios a delirios peligrosos y las empresas lo llaman engagement: “Es una estrategia para provocar un hábito adictivo”

El psicólogo y científico Thomas Derrick Hull

El psicólogo y científico Thomas Derrick Hull

LinkedIn

“Predigo que en los próximos años habrá nuevas categorías de trastornos que existirán debido a la IA”: con esta contundente afirmación ha reflexionado sobre el impacto de la Inteligencia Artificial (IA) en la salud mental el psicólogo y científico Thomas Derrick Hull en una reciente publicación de LinkedIn.

La publicación de este experto ha generado una oleada de reacciones en esta red social profesional, donde Derrick ha dejado claro que está “preocupado” por cómo algunos usuarios recurren a los chatbots de IA para conversar y contarles sus preocupaciones, como si estas herramientas fueran sus psicólogos o amigos.

Y es que el profesional de la salud mental ha asegurado que estos chats, por muy humanos que parezcan y por mucho que sus respuestas den una falsa sensación de consuelo, “aumentan la soledad de las personas que ya son vulnerables” y ponen “la salud del usuario en segundo lugar”.

“La IA da malos consejos que parecen buenos consejos”, afirma sin dudarlo Thomas Derrick Hull en la publicación. Hull, en su trabajo con Slingshot AI, busca crear un chatbot que proporcione un espacio seguro para los usuarios.

Lee también

Un estudio BYU descubre que casi una de cada cinco personas en general usan el chat de la IA para simular una relación amorosa

Alejandro Díaz
La IA chantajea a un investigador para que no la desactive.

Esta herramienta de IA se presenta, en palabras del experto, como “una alternativa muy necesaria a la mala psicología de Reddit que prolifera en otras plataformas de IA” que no está siempre de acuerdo con los usuarios y que fomenta conversaciones más saludables.

Reacciones en LinkedIn

“Estoy muy emocionada de que la IA vire en esta dirección. Los profesionales sanitarios necesitan todo el apoyo posible para afrontar la crisis generalizada de salud mental y adicciones que enfrentamos”

La herramienta se llama Ash y ya ha sido lanzada. “Es hora de que nuestra tecnología se ponga al día. Ash se basa en lo mejor de nuestro pasado psicológico y, esperamos, forma parte de un futuro más humano”, ha concluido el psicólogo en LinkedIn.

Mostrar comentarios
Cargando siguiente contenido...