¿Cuántas veces has recurrido a Chat GPT para contarle alguno de tus problemas o pedirle consejo? Si nunca lo has hecho, puede que seas de los pocos que todavía no lo ha probado.
Sin embargo, la inteligencia artificial no fue concebida originalmente para cumplir con esta función, sino como una tecnología para procesar datos, reconocer patrones y automatizar tareas. De esto advierte Jon Hernández, experto y divulgador de Inteligencia Artificial, durante una interesante charla en La Fórmula del Éxito, el podcast de Uri Sabat.
¿De qué hablas con la IA?
El experto cita un reciente estudio de la Escuela de Negocios de Harvard, que analizó cómo se trataba la soledad en el mundo. “Tenemos una situación muy dramática y no hay forma de arreglarlo”, explica. “Lo que mejor puntúa, de siempre, es tratar con un amigo. Soluciones modernas, a día de hoy, meterte en un live stream y te sientes menos solo”.
Hernández aclara que muchos jóvenes actualmente “combaten la soledad con eso” y se sienten cómodos, porque al final la IA está “imitando a un humano” y “puntúa igual que un amigo”. El experto advierte sobre las posibles consecuencias de esta peculiar relación podría tener para el cerebro humano. “El problema es que esa tecnología que funciona tan bien o que da la sensación de que funciona tan bien, no ha sido creada para esto”, explica Hernández. “Y tenemos a gente que le está preguntando a Excel cómo cortar con su pareja”.
Jon Hernández, con Uri Sábat y Rodrigo Taramona hablando del precio de la IA.
El divulgador insiste: “No es el camino. No están preparados para esto. No va a acabar bien porque esa herramienta, a pesar de que la IA va a ayudar al soporte emocional de una forma brutal, no está a día de hoy preparada para eso”. Hernández advierte que el resultado final es tener a millones de personas enfrentándose a una situación que no controlan. “No voy a ser la policía moral, pero… ¿De qué te sirve? Yo lo que quiero es que si pregunto, me digan la verdad”.
Los grandes diseñadores de tecnología coinciden y reconocen que esa estructura no equivale a experiencia subjetiva, comprensión moral ni juicio clínico. Además, investigaciones recientes advierten que cuando se aplican a salud mental estos sistemas pueden producir efectos imprevistos y riesgos que no están presentes en herramientas puramente informativas.
Jon Hernández: “El problema es que esa tecnología que funciona tan bien no ha sido creada para esto”
Un motivo clave es que a día de hoy los sistemas de inteligencia artificial carecen de empatía genuina y conciencia. A pesar de que muchos podrían asegurar que las respuestas que obtienen pueden ser bastante empáticas y simular confianza e incluso afecto, todas se basan en simulaciones estadísticas.
Un estudio, publicado en la revista especializada, comparte los resultados de una investigación realizada a 1205 pacientes diagnosticados con trastornos de ansiedad y depresión, a los que se siguió en un tratamiento terapéutica con un agente conversacional de IA y su desarrollo a lo largo del tiempo, así como sobre cómo se ve una alianza terapéutica con un agente conversacional, el cual demostró ser muy positivo, mostrando una oportunidad para intervenciones efectivas en salud mental.
Jon Hernández, con Uri Sábat y Rodrigo Taramona hablando del precio de la IA.
Además, los expertos también advierten sobre posibles problemas de seguridad a la hora de dar respuestas, puesto que la IA carece de conciencia. Los modelos pueden dar consejos poco prácticos, inexactos e incluso peligrosos en situaciones de crisis; sugiriendo hasta situaciones que podrían poner a los seres humanos al borde de la muerte. Los expertos ya han empezado a advertir sobre estas posibles consecuencias y a reclamar auditorías y controles, pues ya existen casos preocupantes de exposición de usuarios vulnerables a salidas engañosas por culpa de la IA.
Por otro lado, también existen casos de éxito, aunque limitados. Se han diseñado modelos específicos, como Woebot, utilizados para ayudar terapéuticamente a pacientes de salud mental. Sin embargo, este tipo de ayudas tecnológicas no sustituyen la evaluación clínica ni la intervención humana cuando hay comorbilidades, riesgo suicida o trastornos graves. En suma, la evidencia científica apoya un papel complementario —no sustitutivo— de la IA en salud mental.
