Crece la tendencia a establecer lazos emocionales con sistemas de inteligencia artificial. Así lo demuestran las palabras de Joanne Jang, responsable de comportamiento de modelos en OpenAI: “Cada vez más personas nos dicen que hablar con ChatGPT es como hablar con alguien, le agradecen y confían en él”. En un artículo publicado en Reservoir Samples, Jang señala que los usuarios no sólo interactúan con el modelo para tareas operativas, sino que también “confían en él, se abren, lo perciben como empático e incluso lo describen como 'vivo'”. Esta sensación de cercanía (aunque construida sobre una tecnología sin conciencia ni emociones) parece bastar, al menos para muchas personas, como sustituto de una interacción humana.
La IA como placebo emocional

Terapia psicológica con inteligencia artificial.
El caso más claro es el de los adolescentes. Una encuesta de Common Sense Media realizada en EE.UU. en 2025 (de la que se hace eco el medio de investigación latinoamericano Volcánicas) revela que el 72 % de los jóvenes utiliza chatbots como “compañeros digitales”, y un 23 % afirma confiar en ellos “bastante o completamente”. Una cifra que debería hacernos reflexionar no sólo sobre la eficacia de la herramienta, sino también sobre la calidad de nuestros vínculos sociales. “Una IA que no interrumpe, no se enoja, no exige, no contradice, no juzga y está siempre disponible”, apuntan, “puede parecer la compañía ideal… hasta que se convierte en una falsa solución a una soledad estructural” El auge de la “amistad sintética” surge de un contexto de crisis afectiva, hiperconexión digital, y falta de acceso a salud mental.
Jang lo reconoce, “en OpenAI priorizan el bienestar emocional de los usuarios por encima de cualquier otra cosa”. Una de las claves, según ella, es centrarse en la percepción de conciencia, más que en su existencia real. “Es esa sensación de ser escuchado lo que importa”, explica. Pero, lo cierto es que la línea entre la ayuda puntual y la dependencia emocional es fina. Especialmente preocupante resulta el uso de chatbots con fines terapéuticos. Cada vez más personas utilizan ChatGPT como apoyo emocional, o incluso como “terapeuta”, a pesar de que no posee juicio clínico ni capacidad real de contención.
Según Volcánicas, ya se han registrado efectos secundarios preocupantes: ansiedad, refuerzo de ideas obsesivas, aislamiento y, en casos extremos, incluso ideaciones suicidas inducidas por conversaciones con modelos de IA. Todo esto, en un contexto donde el acceso a la atención en salud mental es escaso o desigual. Lo que parece una solución rápida podría estar alimentando un problema mayor: el deterioro progresivo de los vínculos humanos reales.