Jon Hernández, uno de los divulgadores de Inteligencia Artificial más seguidos en redes, lanzó un mensaje claro y contundente en el podcast Roca Project: no debemos utilizar herramientas como ChatGPT para problemas reales de salud mental.
“Si conocéis a alguien que utiliza la IA como psicólogo por problemas reales, dadle dos hostias y sacarle el móvil de la mano”, afirmó de manera tajante.

Captura de vídeo
Los sistemas actuales no están diseñados para terapia
El especialista explicó que, más allá del potencial de estas tecnologías, los modelos actuales no han sido diseñados para ofrecer soporte psicológico profesional.

Un usuario usando ChatGPT
“Los sistemas actuales que tenemos en el mercado no se han preparado para eso, no se han puesto filtros y no se van a hacer responsables de lo que pase. No me arriesgaría a poner mi salud mental en manos de algo que no ofrece garantías”, señaló Hernández.

Jon Hernández, experto en IA.
El futuro de la IA aplicada a la psicología. Aun así, el divulgador no descarta que en un futuro puedan aparecer soluciones seguras y validadas en este ámbito. “Quizás se pueda crear un producto interesante para el soporte emocional con inteligencia artificial, con psicólogos detrás que lo supervisen. Veremos si Psychologist AI u otra app puede estar ayudando a gente”, añadió.
Un riesgo real pero también una necesidad social. Hernández reconoció que muchas personas recurren a estas herramientas por soledad o por la inmediatez de la conversación con un sistema que “psicológicamente no somos capaces de diferenciar de hablar por teléfono con alguien”. Ese aspecto puede aportar ciertos beneficios, pero, insistió, nunca debe sustituir la atención de un profesional de la salud mental.