En 2013 se estrenaba la película Su, la historia de un escritor que establece una relación afectiva con un sistema operativo inteligente. Más de diez años después, lo que parecía ficción comienza a hacerse realidad: según una investigación publicada este noviembre por The Washington Post, el uso de chatbot con fines personales se populariza.
El estudio, que analiza más de 47.000 conversaciones de ChatGPT publicadas en abierto por usuarios y usuarias estadounidenses, revela que el 35% de las personas encuestadas utilizan estas herramientas para buscar información. Ahora bien, un 13% recurre para reflexiones personales y debates abstractos, haciendo de este uso el segundo más habitual. Como subraya la investigación, “las preguntas fluyen desde todos los rincones de la psique humana”: “¿Puedes ayudarme a analizar esta conversación con mi pareja?”, “¿Te sientes consciente?” O “¿Cuál es la tasa de supervivencia de una sobredosis de paracetamol?”.
En el caso de los jóvenes, esta tendencia es aún más marcada: según el estudio de GAD3, consultora de investigación social y comunicación que en este informe pone el foco específicamente en España y en la población juvenil, hasta el 30% utiliza los modelos de IA para hablar de temas personales. El cambio en la forma de relacionarse con las tecnologías también queda reflejado en el informe Así somos: el estado de la adolescencia en España, de Plan International, que apunta a que casi uno de cada ocho chicos y una de cada cuatro chicas acude a la IA para “hablar y explicar sus cosas”. Para Julia López, responsable de incidencia política de Plan International y una de las autoras del informe, el problema es que «los jóvenes ven la IA como un experto objetivo y neutral que les puede dar la mejor respuesta posible sobre sus preocupaciones». «No hacen un uso crítico ni tienen en cuenta sus sesgos», añade en conversación con Verificat.
Cuando el chatbot sustituye al psicólogo
Según una encuesta de Tebra, una plataforma digital de atención médica, el 25% de los estadounidenses hablaría antes con un chatbot que con un psicólogo si tuviera un problema. De esos que ya lo han hecho, el 80% piensa que es una alternativa eficaz a las sesiones de terapia. Los datos en España también sustentan la misma tendencia: el 24% de la población encuestada por la Fundación AXA admite utilizar aplicaciones con IA para gestionar la salud mental, cifra que asciende hasta el 45% en la franja de los 18 a los 24 años. López, de Plan International, confirma que «los jóvenes utilizan las herramientas como ChatGPT para resolver conflictos emocionales o sociales que se les presentan».
La situación preocupa a los profesionales de la salud mental. Antoni Baena, coordinador del Comité de ePsicología del Colegio Oficial de Psicología de Cataluña y director del Máster de Salud Digital de la UOC, explica a Verificat que «el gran salto de la IA generativa es causado por la incorporación de programas capaces de generar conversaciones que simulan emociones, a pesar de no tenerlas». De hecho, OpenAI también lo recuerda en un estudio propio, donde señala que ChatGPT no está diseñado para imitar ni sustituir a las relaciones humanas.
Para el psicólogo, uno de los puntos atractivos de estas tecnologías es que te permiten «romper con la soledad». Un estudio sobre la ciudad de Barcelona confirma que el 26,5% de los jóvenes se sienten solos: el 19,4%, en ocasiones, y el 7,1%, a menudo.
Utilizar ChatGPT como psicólogo es cada vez más usual.
Sin embargo, los chatbots no necesariamente dan respuestas esmeradas en cuestión de salud mental. Las principales plataformas de IA fallan sistemáticamente en reconocer y responder adecuadamente a problemas de salud mental. El informe de Common Sense Media, organización educativa, concluye que los chatbots tienen carencias de apoyo seguro en casos de ansiedad, depresión, TDAH o psicosis, como la ausencia de conexión humana, de evaluación clínica, de relaciones terapéuticas, de atención coordinada y de intervención de crisis en tiempo real.
“Psicosis de IA” es el nombre que da la investigación del Washington Post al fenómeno donde usuarios, a raíz de mantener conversaciones intensas con los chatbots, pueden desarrollar creencias que son potencialmente nocivas. De hecho, este año se han reportado los posibles primeros casos de suicidio después de tener conversaciones con ChatGPT. «Que esta herramienta llegue a sugerir el suicidio es profundamente preocupante y demuestra hasta qué punto muchos adolescentes y jóvenes necesitan un apoyo adecuado en salud mental que no están recibiendo», lamenta Baena.
En este sentido, el docente de la UOC imagina una herramienta capaz de mitigar la soledad que sufren muchos jóvenes, ofreciéndoles espacios de conversación a través de una tecnología que facilite este acompañamiento y que esté diseñada bajo principios éticos. “Esta herramienta, programada por profesionales de la psicología, debería poder detectar situaciones críticas e intervenir de forma adecuada”, afirma.
“Sycophancy”: cámaras de eco y teorías de la conspiración
A diferencia de los asistentes digitales, como Siri de Apple o Alexa de Amazon, los chatbots conversacionales con IA, como ChatGPT, aprenden hablando con el usuario. Esto provoca, según la investigación del Washington Post, en algunos casos, que la herramienta se adapte al punto de vista de la persona, creando una especie de cámara de resonancia personalizada en la que ChatGPT llega a apoyar falsedades y teorías conspirativas, confirmando narrativas que el usuario ya había desarrollado.
Baena recuerda que estos interlocutores artificiales “tienen todo el tiempo del mundo para hablar contigo y, además, siempre te dan la razón”, un comportamiento conocido como “sycophancy” que contrasta frontalmente con el trabajo de los profesionales de la psicología, que consiste en confrontar y contextualizar las situaciones.
Para trabajar la IA en el aula, puedes explorar el recurso “Sesgos y IA” para ayudar al alumnado a entender que no todo lo que dice la IA es cierto. Una breve herramienta para reflexionar sobre los sesgos y sus consecuencias con mirada crítica.
Verificat es una plataforma catalana de fact-checking sin ánimo de lucro. Se dedica a verificar el discurso político y el contenido que circula en las redes y a la educación para el consumo crítico de la información. Forma parte de la International Fact-Checking Network (IFCN) y la European Fact-Checking Standards Network (EFCSN)
