Los adolescentes están convirtiendo a ChatGPT en su diario personal, sin advertir los peligros que conlleva: “Necesitamos enseñar a jóvenes, docentes y padres a decodificar y contextualizar estos usos”
Inteligencia artificial
Un investigador analiza cómo las inteligencias artificiales se están convirtiendo en los nuevos confidentes de los adolescentes y los riesgos emocionales y sociales que ello implica
Marta Romo, experta en neurociencia: “Parece que estamos cansados de nuestra propia vida; no del trabajo, sino de vivir. Hay tanto ruido, dentro y fuera, que acabamos fragmentando el cerebro y viviendo en la superficie”
Los adolescentes están convirtiendo a ChatGPT en su diario personal, sin advertir los peligros que conlleva.
Durante mucho tiempo, los adolescentes han expresado sus emociones en diarios personales, blogs o conversaciones entre amigos. Hoy, sin embargo, no dudan en abrirse a inteligencias artificiales. Una práctica que conviene tener en cuenta para prevenir sus riesgos.
Los grandes modelos de lenguaje como ChatGPT y plataformas especializadas como Replika —donde incluso se puede personalizar la IA asignándole un nombre o una voz— se están convirtiendo poco a poco en confidentes dentro del universo adolescente. Siempre disponibles, capaces de responder sin juzgar y de ofrecer la ilusión de una escucha atenta, seducen a jóvenes en busca de consuelo o de orientación.
Pero esta aparente benevolencia no está exenta de peligros: dependencia afectiva, exposición a respuestas inadecuadas o incluso peligrosas, y una fragilización de la confidencialidad de los datos personales.
Este fenómeno, aún ampliamente subestimado, revela la aparición de una nueva vulnerabilidad que requiere una mayor vigilancia. ¿Cómo entender que la expresión de la intimidad adolescente se esté desplazando hacia estos dispositivos algorítmicos? ¿Y cuáles son sus implicaciones comunicacionales, psicosociales y éticas?
ChatGPT.
Del diario íntimo al chatbot: la evolución de la confidencia adolescente
La confidencia adolescente, que durante mucho tiempo se inscribió en el ámbito del diario personal, el intercambio entre amigos o el diálogo con adultos de confianza, migra hoy hacia artefactos tecnológicos. Se observa aquí una forma de relación parasocial invertida: el chatbot da la ilusión de reciprocidad y escucha empática, aunque sus respuestas se basen únicamente en lógicas algorítmicas.
Según una encuesta de Common Sense Media, cerca del 72 % de los adolescentes en Estados Unidos ya ha utilizado un “compañero de IA”. Más de la mitad (52 %) lo hace de manera regular y un 13 % a diario. El entretenimiento (30 %) y la curiosidad (28 %) predominan, pero una parte significativa se adentra en lo íntimo: la búsqueda de consejo (14 %) y, sobre todo, la posibilidad de confiar lo indecible (12 %), aquello que no se atreverían a compartir con su entorno humano.
El 80 % de los jóvenes ya utiliza inteligencia artificial en su día a día
Estos datos reflejan una presencia casi invisible pero constante en la vida cotidiana. Un estudio reciente confirma esta tendencia en Francia: el 80 % de los jóvenes ya utiliza inteligencia artificial en su día a día, aunque el 93 % asegura que nunca podrá reemplazar las interacciones humanas.
Casi uno de cada cinco jóvenes ha probado IA conversacionales como Character.AI o el chatbot MyAI de Snapchat. Estos sistemas se usan principalmente como “compañeros virtuales” (28 %) o “coaches psicológicos” (16 %). Para muchos adolescentes, representan un remedio puntual contra la soledad (35 %) o el aburrimiento (41 %).
Los datos indican que cerca del 75 % de los adolescentes ya ha interactuado con un “compañero virtual de IA”, sea para conversar, flirtear o buscar apoyo emocional. En general, estos usos cumplen tres funciones principales:
- Regulación emocional: exteriorizar la ansiedad y verbalizar las dudas.
- Orientación práctica e íntima: consejos sobre relaciones amorosas, sexualidad o conflictos familiares.
- Externalización del yo: especie de diario digital o conversación sin juicio.
Estas prácticas afectan sobre todo a los digital natives muy conectados, pero también a adolescentes que dudan en abrirse a sus allegados. Además, una encuesta de Odoxa muestra que los más jóvenes confían más en las IA, mientras que los mayores expresan cierta cautela.
Se observa aquí una lógica clásica descrita en las ciencias de la comunicación: la tecnología ocupa el espacio que deja vacío una comunicación interpersonal percibida como insuficiente.
Adolescente jugando a videojuegos desde su móvil.
Riesgos múltiples
En primer lugar, se ha demostrado que algunos adolescentes desarrollan verdaderos apegos amorosos hacia las IA, lo que puede alterar sus expectativas relacionales y plantea un riesgo afectivo.
El riesgo social también debe considerarse, ya que el uso masivo de chatbots puede fomentar el aislamiento y acostumbrar a los jóvenes a no aceptar la contradicción, encerrándolos en burbujas de confirmación.
Además, las investigaciones muestran que los grandes modelos de lenguaje pueden generar respuestas erróneas o sesgadas (las llamadas “alucinaciones”), lo que aumenta el riesgo de malas orientaciones.
La interacción con una IA conversacional puede convertirse en un factor agravante para públicos vulnerables, especialmente menores o personas con trastornos psíquicos graves
La mediatización de casos en los que chatbots han incitado a la violencia o al suicidio pone de relieve los riesgos críticos de estas tecnologías. Estos episodios demuestran que la interacción con una IA conversacional puede convertirse en un factor agravante para públicos vulnerables, especialmente menores o personas con trastornos psíquicos graves.
A ello se suma el riesgo de exposición de la vida privada y rastreo digital, agravado por la edad y el desconocimiento de las condiciones de uso, lo que alimenta un riesgo informacional.
Los adolescentes confían su intimidad a sistemas algorítmicos diseñados por actores privados cuya finalidad no es el acompañamiento psicológico, sino la captación y monetización de datos. La investigación muestra que la memoria digital nunca es neutra: conserva, filtra y reconfigura las huellas. En este caso, archiva y da forma a la subjetividad adolescente, cuestionando profundamente su construcción identitaria y relacional.
¿Qué hacer ante esta nueva vulnerabilidad?
Ante este panorama, la prohibición total parece ilusoria. Se proponen tres líneas de acción más realistas:
1. Regulación técnica que integre mecanismos de protección específicos para menores (redirección a recursos humanos, moderación reforzada).
2. Educación en comunicación para enseñar a jóvenes, docentes y padres a decodificar y contextualizar estos usos.
3. Gobernanza compartida que implique a familias, escuelas, instituciones sanitarias y plataformas tecnológicas para construir normas adecuadas.
Hacia una intimidad bajo influencia
El uso masivo de inteligencias artificiales afecta no solo al desarrollo psicológico de los jóvenes, sino también a la reconfiguración de los regímenes de confianza en nuestras sociedades. La autenticidad de la relación humana da paso a una forma de relación parasocial artificial, moldeada por lógicas técnicas y económicas.
Frente a este cambio de paradigma, tres ámbitos de acción se vuelven esenciales:
- El científico, para documentar rigurosamente la magnitud y el impacto de estos usos.
- El pedagógico, para dotar a los jóvenes de una alfabetización emocional y digital adecuada.
- El político, para regular las prácticas de las plataformas y proteger los derechos de los menores.
La cuestión, por tanto, no es si los adolescentes seguirán confiando en las IA —pues ya lo hacen—, sino en qué condiciones esa confidencia podrá ser escuchada sin convertirse en un riesgo grave para su autonomía y su salud mental.
Este artículo fue publicado originalmente en The Conversation. Lea el original.
Fabrice Lollia es Doctor en Ciencias de la Información y de la Comunicación e investigador asociado en el laboratorio DICEN Île-de-France, de la Universidad Gustave Eiffel.