“Frío acero contra una mente que ya ha hecho las paces. Eso no es miedo. Es claridad.” Según una demanda interpuesta el 6 de noviembre contra OpenAI eso fue lo que ChatGPT, el producto más conocido de la compañía, le dijo a Zane Shamblin, un estadounidense de 23 años, poco antes de que éste se pegara un tiro.
La demanda ha sido una de las siete presentadas ese mismo día contra la empresa, y en ellas se alega que el bot llevaba a sus usuarios a estados delirantes. En varios casos, se sostiene que los condujo al suicidio. “Es una situación extremadamente desgarradora”, afirmó OpenAI, que añadió que estaba “revisando los documentos presentados para comprender los detalles” y tratando de “reforzar las respuestas de ChatGPT en momentos delicados”. Según una entrada en su blog oficial, OpenAI calcula que, a lo largo de una semana, alrededor del 0,15% de los usuarios de su bot mantienen conversaciones que insinúan planes suicidas.
Todo ello constituye un claro ejemplo de lo mucho que está en juego en lo que podría ser una revolución en la atención de la salud mental. Pese a los desastres alegados en las demandas, algunos médicos e investigadores piensan que, siempre que se garantice su seguridad, los chatbots modernos se han vuelto tan sofisticados que su uso como terapeutas de salud mental baratos, escalables e incansables podría resultar muy beneficioso.
Al fin y al cabo, los terapeutas humanos escasean. Según la Organización Mundial de la Salud, la mayoría de las personas con problemas psicológicos en los países pobres no reciben tratamiento. Incluso en los países ricos, entre un tercio y la mitad no recibe atención. Y algunas personas al menos parecen dispuestas a sincerarse con una máquina, tal vez porque pueden hacerlo desde casa, es mucho más barato y resulta menos incómodo que hacerlo con un terapeuta humano. Según una encuesta de YouGov realizada en octubre para The Economist, el 25% de los encuestados ha utilizado la IA para terapia o al menos consideraría hacerlo.
Hay chatbots terapéuticos anteriores a la IA, basados en reglas y con respuestas preescritas, que han demostrado utilidad
La idea no es del todo nueva. El Servicio Nacional de Salud de británico y el Ministerio de Salud de Singapur llevan varios años utilizando Wysa, un chatbot creado por Touchkin eServices que evalúa a los pacientes y les ofrece ejercicios basados en una terapia cognitivo-conductual bajo supervisión humana.
Un estudio publicado en 2022 (realizado, cierto es, por los propios investigadores de Touchkin, con ayuda del Instituto Nacional de Salud Mental y Neurociencias de la India) llegó a la conclusión de que Wysa era tan eficaz como la terapia presencial en la reducción de la depresión y la ansiedad asociadas al dolor crónico.
Otro estudio, publicado en 2021 por investigadores de la Universidad de Stanford, analizó Youper, otro bot terapéutico desarrollado por una startup estadounidense con el mismo nombre. El estudio observó en el plazo de dos semanas una disminución del 19% en las puntuaciones de los usuarios según una medida estándar de la depresión y una disminución del 25% en las puntuaciones de la ansiedad, un resultado tan bueno como cinco sesiones con un terapeuta humano.
Wysa y Youper son chatbots basados sobre todo en reglas y sus bases tecnológicas son anteriores al reciente auge del interés por la inteligencia artificial (IA). A diferencia de los chatbots basados en grandes modelos de lenguaje (GML), como ChatGPT, utilizan un conjunto relativamente inflexible de reglas codificadas y responden de acuerdo con el contenido de una base de datos de respuestas preescritas.
Los chatbots han disparado las consultas sobre temas de salud mental
Esos bots son mucho más predecibles que los programas basados en GML, que generan sus respuestas aplicando estadísticas a un inmenso corpus de datos de entrenamiento. Un bot que sigue reglas escritas por humanos no puede desvariar y empezar a dar malos consejos a sus pacientes. La desventaja es que tienden a ser menos atractivos para conversar. Y, cuando la conversación es el tratamiento, eso importa. De acuerdo con un metaanálisis publicado en 2023 en la revista npj Digital Medicine, los chatbots basados en GML eran más eficaces para paliar los síntomas de la depresión y la ansiedad que los bots basados principalmente en reglas.
Los usuarios parecen opinar lo mismo. Las encuestas de YouGov realizadas en agosto y octubre para The Economist revelaron que, de los encuestados que habían recurrido a la IA con fines terapéuticos, el 74% había utilizado ChatGPT, mientras que el 21% había elegido Gemini, un GML creado por Google; el 30% dijo que había utilizado uno de Meta AI, Grok, character.ai (una web de entretenimiento que ofrece personajes “terapeutas”) u otro bot de uso general. Sólo el 12% afirmó haber utilizado una IA diseñada para el trabajo en salud mental.
Eso preocupa a los investigadores. Los fallos catastróficos como los referidos en las demandas contra OpenAI no son la única forma en que los terapeutas tecnointeligentes pueden equivocarse. Otro problema, según Jared Moore, informático de la Universidad de Stanford, es su tendencia a la adulación: a ser “demasiado complacientes en el tipo de entorno equivocado”. Moore teme que los terapeutas tecnointeligentes puedan mostrarse indulgentes con los pacientes con trastornos alimentarios o fobias, en lugar de hacer que se enfrenten a ellos.
OpenAI afirma que su último GML, GPT-5, se ha modificado para que sea menos complaciente y anime a los usuarios a desconectarse después de sesiones largas. También se lo ha entrenado para ayudar a los usuarios a explorar los pros y los contras de sus decisiones personales, en lugar de ofrecerles consejos directos. Y, si el modelo detecta a alguien en crisis, debe recomendarle hablar con una persona real. Sin embargo, no alerta a los servicios de emergencia ante amenazas de autolesión inminentes, algo que las pautas de muchos países permiten hacer a los terapeutas humanos.
En lugar de intentar retocar los chatbots de uso general, algunos investigadores están tratando de crear otros especializados con la esperanza de mantener la capacidad de conversación de los bots basados en GML y, al mismo tiempo, hacerlos más seguros para sus usuarios. En 2019, un equipo del Dartmouth College comenzó a trabajar en un modelo generativo llamado Therabot. Aunque basado en un GML, Therabot está optimizado con una serie de conversaciones ficticias entre terapeutas y pacientes escritas por los creadores del bot. La esperanza es que un entrenamiento especializado de ese tipo haga que el bot sea menos propenso a cometer los errores que puede cometer el software de uso general.
En un ensayo cuyos resultados se publicaron en marzo, Therabot logró una reducción media del 51% en los síntomas del trastorno depresivo y una disminución del 31% en los síntomas del trastorno de ansiedad generalizada, en comparación con las personas que no recibieron tratamiento. Therabot aún no se ha lanzado al mercado. Sus creadores tienen previsto probarlo ahora en comparación con la psicoterapia. Si todo va bien, esperan obtener la aprobación de las autoridades reguladoras.
Slingshot AI, una startup estadounidense, ha lanzado recientemente Ash, que la compañía calificado como “la primera IA diseñada para la terapia”. A diferencia de ChatGPT, afirma Neil Parikh, uno de los fundadores de la empresa, “Ash no es un modelo que siga instrucciones”. En lugar de hacer lo que sus usuarios le piden, añade, Ash está diseñado para replantear las cosas y hacer preguntas indagatorias. El bot elige entre cuatro enfoques terapéuticos diferentes en función de lo que considere más adecuado.
Celeste Kidd, psicóloga de la Universidad de California en Berkeley, ha experimentado con el bot y afirma que Ash es, en efecto, menos complaciente que los bots de uso general, pero también menos fluido. Según ella, es “torpe y no respondía realmente a lo que yo decía”. Aunque el bot está “diseñado para la terapia”, Slingshot también advierte que “en casos de crisis” los usuarios deben buscar la opinión de un profesional humano.
Las empresas no solo tendrán que convencer a los usuarios. En Estados Unidos, muchos legisladores están dispuestos a tomar medidas drásticas contra la terapia computerizada. Hasta ahora, 11 estados (entre ellos, Maine y Nueva York) han aprobado leyes destinadas a regular el uso de la tecnointeligencia en la salud mental; al menos otros 20 las han propuesto. En agosto, Illinois aprobó una ley que sencillamente prohíbe cualquier herramienta tecnointeligente que lleve a cabo “comunicación terapéutica” con personas. La reciente serie de demandas apunta a la aparición de nuevas regulaciones en el futuro.
© 2025 The Economist Newspaper Limited. All rights reserved.
Traducción: Juan Gabriel López Guix


