“Predigo que en los próximos años habrá nuevas categorías de trastornos que existirán debido a la IA”: con esta contundente afirmación ha reflexionado sobre el impacto de la Inteligencia Artificial (IA) en la salud mental el psicólogo y científico Thomas Derrick Hull en una reciente publicación de LinkedIn.
La publicación de este experto ha generado una oleada de reacciones en esta red social profesional, donde Derrick ha dejado claro que está “preocupado” por cómo algunos usuarios recurren a los chatbots de IA para conversar y contarles sus preocupaciones, como si estas herramientas fueran sus psicólogos o amigos.
Y es que el profesional de la salud mental ha asegurado que estos chats, por muy humanos que parezcan y por mucho que sus respuestas den una falsa sensación de consuelo, “aumentan la soledad de las personas que ya son vulnerables” y ponen “la salud del usuario en segundo lugar”.
“La IA da malos consejos que parecen buenos consejos”, afirma sin dudarlo Thomas Derrick Hull en la publicación. Hull, en su trabajo con Slingshot AI, busca crear un chatbot que proporcione un espacio seguro para los usuarios.
Esta herramienta de IA se presenta, en palabras del experto, como “una alternativa muy necesaria a la mala psicología de Reddit que prolifera en otras plataformas de IA” que no está siempre de acuerdo con los usuarios y que fomenta conversaciones más saludables.
Reacciones en LinkedIn
“Estoy muy emocionada de que la IA vire en esta dirección. Los profesionales sanitarios necesitan todo el apoyo posible para afrontar la crisis generalizada de salud mental y adicciones que enfrentamos”
La herramienta se llama Ash y ya ha sido lanzada. “Es hora de que nuestra tecnología se ponga al día. Ash se basa en lo mejor de nuestro pasado psicológico y, esperamos, forma parte de un futuro más humano”, ha concluido el psicólogo en LinkedIn.