Neo

Lucía Etxebarria, psicóloga y periodista, sobre la autodetección del autismo: “ChatGPT te puede reforzar ese autodiagnóstico”

Salud mental

El uso de herramientas de inteligencia artificial para la autodetección de trastornos como el autismo genera preocupación entre expertos por su impacto en la salud mental de los usuarios

Joanne Jang, responsable de comportamiento de modelos en OpenAI: “Cada vez más personas nos dicen que hablar con ChatGPT es como hablar con alguien, le agradecen y confían en él”

Lucía Etxebarria habla con Risto Mejide en 'Viajando con Chester'

Lucía Etxebarria habla con Risto Mejide en 'Viajando con Chester'

Mediaset

Lucía Etxebarria, escritora, periodista y también psicóloga, ha lanzado una advertencia clara en una reciente intervención en la cuenta de Instagram de la psicóloga Silvia Olmedo: “Si tú le empiezas a preguntar a ChatGPT, te puede reforzar ese autodiagnóstico que te has hecho tú”. Su reflexión llega en un momento en el que las búsquedas relacionadas con “espectro autista” o “soy autista” han crecido de forma notable en redes sociales y foros, especialmente entre adultos que exploran sus rasgos personales buscando sentido a vivencias pasadas.

Los límites de la inteligencia artificial en salud

Etxebarria insiste en que el autismo es una “condición neurológica”, no psicológica, y que autodiagnosticarse por internet puede llevar a confusiones graves. “El autismo funcional se ha puesto de moda”, afirma, refiriéndose a cómo ciertos síntomas o rasgos de personalidad pueden malinterpretarse, provocando que muchas personas se coloquen la etiqueta de autistas sin un diagnóstico clínico riguroso. Este tipo de análisis simplificado que muchas veces se encuentra en Internet, o incluso reforzado por sistemas de inteligencia artificial como ChatGPT, puede derivar en una visión reduccionista de la salud mental.

Desde el Instituto de Investigación Sanitaria Aragón, también ha advertido sobre el uso inadecuado de herramientas de inteligencia artificial para detectar enfermedades. Aunque se reconocen sus beneficios en casos excepcionales, matizan que “la inteligencia artificial siempre te da una respuesta, pero puede ser errónea. Es lo que llamamos ‘una alucinación’”.

Este fenómeno, donde la IA ofrece datos inexactos pero presentados con aparente seguridad, puede reforzar creencias equivocadas, especialmente en quienes buscan respuestas inmediatas a sus malestares emocionales. En el caso del autismo, donde el diagnóstico implica una evaluación profunda y multidisciplinar, la intervención de una IA sin la supervisión de un especialista puede generar falsas percepciones de identidad.

La presidenta de la Sociedad Aragonesa de Medicina Familiar y Comunitaria, Izarbe Galindo, también ha sido clara: “Vamos a tener que acostumbrarnos a trabajar con estas herramientas, pero sin olvidar que no son humanos”. Añade que “el diagnóstico no se limita a una suma de síntomas, sino que hay que valorar muchas otras cosas”, entre ellas el contexto social, emocional y conductual del paciente.

Autodiagnosticarse puede ofrecer un alivio momentáneo, una sensación de haber encontrado “la explicación” a conductas o emociones. Pero ese camino puede ser también una trampa. Etxebarria advierte que “es muy peligroso ponerte una etiqueta tan rápida porque entonces esa persona se queda en ese estigma”. Y además, aunque la IA puedan ofrecer indicios, los profesionales recuerdan que no pueden sustituir la mirada clínica.

Etiquetas