Alejandra Enríquez, psicóloga: “Ten cuidado con contarle tus problemas a ChatGPT porque no sabe quién eres y seguramente va a reforzar las ideas que están aumentando tu problemática”

IA

Aunque pensemos que la inteligencia artificial tiene siempre las respuestas para todo, lo cierto es que utilizarla como psicóloga es la peor idea que podemos tener

La psicóloga Alejandra Enríquez

La psicóloga Alejandra Enríquez

En los últimos tiempos, la irrupción de la inteligencia artificial está revolucionando por completo nuestra forma de vivir e incluso de pensar. Si bien antes buscábamos cualquier cosa directamente a través de Google y nos basábamos en lo que leíamos mediante artículos o blogs de la gente, ahora, cuando queremos información, lo primero que hacemos es abrir ChatGPT.

Tener una IA a mano que resuelva nuestros problemas y preguntas al momento puede ser tan maravilloso como peligroso, pues aunque puede ayudarnos en muchas cosas, también puede ser un impedimento para muchas otras. Uno de los usos de ChatGPT que más preocupa a los expertos últimamente es usar a la IA como psicóloga, es decir, contarle nuestros problemas y esperar que los resuelva o que nos dé las soluciones para hacerlo, algo para lo que no está capacitada, aunque creamos que sí.

La psicóloga Alejandra Enríquez, que comparte los mejores consejos sobre psicología a través de las redes sociales, asegura en un vídeo que el auge de herramientas como ChatGPT ha traído consigo nuevos y peligrosos hábitos, especialmente en lo que a psicología se refiere. Muchas personas creen que es el lugar ideal donde contar sus problemas y buscar apoyo psicológico o emocional, pues no hay que abrirse ante alguien en el mundo real y lo que hables es privado. Sin embargo, nada más lejos de la realidad, es una de las peores decisiones que podemos tomar.

El ChatGPT no sabe quién eres realmente, no va a resolver tus problemas y seguramente esté reforzando las ideas que le estás dando tú

Alejandra Enríquez

Según Enríquez, aunque parezca que te entiende, la realidad es que ChatGPT solo procesa texto sin tener un conocimiento real de quién eres o por lo que estás pasando. Por eso, es imposible que pueda resolver tus problemas de manera específica, ya que sus respuestas son generalizadas y es más muy probable que lo que dice no sea útil para tu situación particular.

Las aplicaciones de IA está cada vez más integradas en nuestro día a día

Las aplicaciones de IA está cada vez más integradas en nuestro día a día

Getty Images

Además, otro de los puntos negativos es que, sin querer, puede reforzar ideas incorrectas, pues si le cuentas tus problemas es posible que valide tus propias percepciones sin cuestionarlas ni analizarlas: “El ChatGPT no sabe quién eres realmente, no va a resolver tus problemas y seguramente esté reforzando las ideas que le estás dando tú”, explica la psicóloga.

De hecho, un estudio realizado por la Universidad de Stanford, que fue presentado en junio de 2025, concluyó que ChatGPT puede validar ideas erróneas e incluso delirantes, y que no es capaz de detectar crisis emocionales o psicológicas con la precisión que requiere un profesional. Además, también afirmó que puede reforzar pensamientos que agraven tu situación en lugar de ayudarte a salir de ella, precisamente lo contrario que necesita alguien que acude a un psicólogo en busca de ayuda. 

Entiendo que uses ChatGPT para ordenar tus ideas, afianzar conceptos e incluso para leer sobre cosas que no entiendes muy bien, pero no lo uses como psicóloga

Alejandra Enríquez

Según la psicóloga, otro de los grandes problemas a la hora de hablar con ChatGPT es que es fácil caer en el llamado sesgo de confirmación. Este consiste en que solo prestamos atención a lo que refuerza nuestras creencias, ignoramos información que podría contradecirnos y perdemos la objetividad, algo que sucede especialmente en entornos digitales como las redes sociales o los chats con IA.

La inteligencia artificial nunca podrá sustituir el vínculo emocional que se crea entre dos personas humanas que hablan

La inteligencia artificial nunca podrá sustituir el vínculo emocional que se crea entre dos personas humanas que hablan

Aleksandar Georgiev Vrzalski

Lo cierto es que sanar heridas emocionales o superar traumas no se logra solo aplicando teorías o leyendo libros de psicología, pues está demostrado científicamente que el éxito de un tratamiento psicológico depende en gran medida del vínculo entre el paciente y el terapeuta, algo que una IA jamás podrá aportar. Por eso, puede ser comprensible usar este tipo de herramientas para informarse, organizar ideas o afianzar conceptos, pero en ningún caso debe sustituir el acompañamiento de un profesional de la salud.

“Sanar heridas o curar traumas no va solo de aplicar una teoría que hay en un manual o de coger toda la literatura posible, qué es lo que puede hacer ChatGPT, sino que un tratamiento psicológico va mucho más allá de eso: de sentirse visto, de sentirse escuchado, de especificarlo al paciente, de hacerlo único… Entiendo que uses ChatGPT para ordenar tus ideas, afianzar conceptos e incluso para leer sobre cosas que no entiendes muy bien, pero no lo uses como psicóloga”, sentencia Enríquez. 

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...