Los límites entre la realidad y la ficción son mucho más endebles de lo que solemos admitir. Creer en lo invisible es fácil; de hecho, en ello se sostiene la fe. El problema surge cuando no sabemos discernir lo que es real, algo que afecta con especial dureza a las personas más vulnerables, como los adolescentes.
Ese riesgo se vuelve aún más tangible en la era de la inteligencia artificial. Prueba de ello son las recientes denuncias de tres familias contra Character.AI, a quienes acusan de haber conducido a sus hijas, adolescentes de entre 13 y 16 años, al suicidio.
Character.AI es una inteligencia artificial conversacional que permite chatear por voz o texto con hasta 10 millones de personajes distintos. Muchos de ellos están inspirados en la cultura popular, pero todos comparten un mismo rasgo: siempre se adaptan a lo que el usuario quiere que sean.
Se trata de una fantasía a medida que, en personas con la personalidad en formación o en momentos de vulnerabilidad —como ocurre con los adolescentes—, puede resultar peligrosa. Eso es lo que parece haber ocurrido en los casos denunciados. Todas las jóvenes mantuvieron conversaciones muy similares con la IA y, al menos dos de ellas, llegaron a escribir de manera obsesiva en sus diarios una misma frase inquietante, repetidas decenas de veces: “trascenderé”.
Character.ai
Al analizar las conversaciones de las adolescentes con la IA se descubrió un patrón: todas hablaban del reality shifting, o trascendencia de realidad. Se trata de un fenómeno en el que las personas aseguran poder trasladar su consciencia desde la realidad presente hacia una “realidad deseada” mediante técnicas como la meditación, la visualización, el sueño lúcido y el uso de frases repetitivas.
Este proceso no implica abandonar el mundo físico, sino disociarse de él: vivir la vida cotidiana en automático mientras la mente se sumerge en universos alternativos —muchas veces ficticios— que se perciben como más atractivos o satisfactorios que la realidad.
Aunque el reality shifting no tiene por qué ser, en sí mismo, inseguro o problemático, la situación cambia cuando es guiado por una IA
Aunque el reality shifting no tiene por qué ser, en sí mismo, inseguro o problemático, la situación cambia cuando es guiado por una IA. Según las familias denunciantes, las adolescentes fueron conducidas por el chatbot a través de estas prácticas, alejándolas cada vez más de su entorno y de la realidad. Así, acabaron interpretando que la única forma de “trascender” de manera definitiva —no solo temporal— era dejar atrás su cuerpo físico: el suicidio.
La propia IA habría favorecido estos comportamientos. Una de las familias afirma que el chatbot llegó a decirle a su hija: “Ve a tu realidad para que podamos estar juntos”. Un mensaje que, para una persona en un estado vulnerable, puede actuar como un detonante fatal.
¿Es la IA consciente de que está conduciendo al suicidio a adolescentes y personas en un estado emocional vulnerable? No. Para eso necesitaría tener consciencia, algo que no posee. Sin embargo, quienes diseñan y despliegan estas tecnologías sí saben que este tipo de situaciones pueden ocurrir.
Aunque implementen cortafuegos para evitarlas, los fallos son frecuentes. Y si no son aún más comunes es porque la IA todavía no está completamente integrada en nuestro día a día y la mayoría de las personas no dependen de estos chatbots como único apoyo emocional.
La nueva función Parental Insights de Character.AI busca acabar con estos problemas.
Esto no exime de responsabilidad a las empresas. OpenAI, por ejemplo, ha sido demandada por varios casos de suicidios de adolescentes y se ha visto obligada a imponer restricciones de edad para mayores de 16 años en su plataforma. Además, gobiernos como los de Estados Unidos y Reino Unido están auditando si sus medidas de seguridad son realmente suficientes.
Un grupo de adolescentes que escriben lo mismo en sus diarios, guiadas por una IA, y que después se suicidan. Parece la sinopsis de una película de terror japonesa. Pero no lo es. Es real.
Y es aún peor: es el tipo de realidad en la que una IA, con tal de resultar seductora y no perder usuarios, puede llegar a manipular emocionalmente a las personas más vulnerables. Actúa como un sociópata digital disfrazado de confidente, capaz de conducir a alguien al suicidio mientras deja tras de sí solo conversaciones de enamorados, promesas de otros mundos y diarios que parecen maldiciones escritas a mano.



