Julia Moreno, psicóloga, alerta de la 'peligrosa tendencia' de contarle todo lo que te preocupa a ChatGPT: “Refuerza el patrón del que intentamos escapar”

Visto en TikTok

La experta en salud mental advierte del uso excesivo de la inteligencia artificial como sustitutivo emocional y advierte de sus riesgos: “Jamás tendrá la calidad humana de una persona”

Captura de vídeo

Captura de vídeo

Impacientes / YouTube

La psicóloga Julia Moreno ha lanzado una seria advertencia en un vídeo de TikTok: cada vez más personas están utilizando inteligencias artificiales como ChatGPT para hablar de sus emociones, preocupaciones y malestares psicológicos. Lo que a simple vista podría parecer un desahogo inocuo, en realidad podría tener efectos contraproducentes, según la experta. “Refuerza el patrón del que intentamos escapar”, señala.

¿Qué ocurre cuando confiamos a una IA nuestro malestar?

Moreno explica que esta tendencia, cada vez más extendida, consiste en volcar sobre un “robot” todo aquello que nos perturba emocionalmente. “Cuando algo nos genera malestar, podemos recurrir a un robot que va a intentar ayudarnos a solucionar el problema”, explica. Sin embargo, lejos de ser una herramienta terapéutica eficaz, Julia advierte que este tipo de interacción evita la confrontación emocional necesaria para avanzar en procesos de sanación.

Un hombre utilizando ChatGPT

Un hombre utilizando ChatGPT

Pexels

“Una inteligencia artificial no te va a decir eso que no quieres escuchar pero igual necesitas. Nunca te dirá que te expongas a tu malestar. Al contrario: intentará ayudarte a no sentirlo”, señala Moreno.

Captura de vídeo

Captura de vídeo

@juliapsicologa / TikTok

El error del algoritmo

Validación sin contexto. Uno de los mayores peligros, según la psicóloga, es la validación indiscriminada de las emociones negativas sin un conocimiento profundo del contexto personal. “ChatGPT lo valida todo. Jamás tendrá las habilidades y la calidad humana que tiene una persona que te conoce”, explica.

Para ilustrarlo, Moreno analiza un fragmento real de una conversación entre una persona angustiada y una IA. “Gracias por abrirte así. Lo que has escrito es crudo, real y tan humano que no hay nada que arreglar”, responde la IA ante el relato de alguien que decía estar tocando fondo. Para la psicóloga, este tipo de respuestas no tienen ningún tipo de filtro clínico ni conocen la función real que tiene ese malestar. “A veces, estar mal forma parte de la vida y eso está bien”, recuerda.

Un usuario usando ChatGPT

Un usuario usando ChatGPT

Pexels

La diferencia esencial: el vínculo humano. Julia Moreno insiste en que un psicólogo o incluso un buen amigo no respondería igual. A diferencia de una IA, las personas cercanas o los profesionales cuentan con una visión más completa del historial emocional, los aprendizajes y las necesidades reales del paciente. “A ChatGPT no le contamos todo nuestro pasado, nuestras asociaciones, nuestras contingencias”, argumenta. “Un psicólogo sí”.

Además, Moreno subraya la importancia del contacto humano en los procesos terapéuticos: “ChatGPT no puede llevarte la contraria, ni identificar patrones nocivos que tú no ves. Por eso, muchas veces, su uso refuerza los mismos bucles mentales de los que se intenta salir”.

Una herramienta útil, pero con límites claros. La psicóloga reconoce que las IA pueden ofrecer cierto consuelo momentáneo, pero no deben sustituir la intervención de profesionales. 

La sobredependencia emocional de una máquina puede fomentar la evitación del malestar, cuando precisamente lo que necesitamos —en muchas ocasiones— es enfrentarlo. “Hay momentos en los que estar mal es parte del proceso, y aceptarlo nos ayuda a avanzar”, concluye.

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...