IA

Los expertos alertan del aumento de consultas sobre enfermedades en ChatGPT: “La IA busca satisfacer al usuario, no decirle la verdad”

IA para diagnosticarse

Más de 230 millones de usuarios usan ChatGPT cada semana para hacer consultas médicas, y esto ha llevado a OpenAI a lanzar su propia herramienta especializada.

¿Usas ChatGPT en el trabajo? Cuidado con la IA en la sombra, podrías estar poniendo en riesgo a tu empresa

Mucha gente consulta a ChatGPT cuestiones que debería plantearle al médico.

Mucha gente consulta a ChatGPT cuestiones que debería plantearle al médico.

Getty Images

El pasado 7 de enero, OpenAI anunció el lanzamiento de ChatGPT Salud, una nueva versión del popular chatbot especializada en consultas relacionadas con el ámbito sanitario, desde información sobre dietas o alérgenos hasta síntomas y enfermedades. En el comunicado oficial, la empresa explica que la salud ya es uno de los temas más populares en ChatGPT. Según sus cifras, la aplicación recibe semanalmente 230 millones de consultas.

Esto despierta, también, cierta preocupación en el sector sanitario: el uso de herramientas de IA para, por ejemplo, el diagnóstico de enfermedades o el establecimiento de dietas puede percibirse como útil por parte de los pacientes, pero también conlleva riesgos. Varios estudios científicos han tratado de determinar el nivel de exactitud de los diagnósticos médicos realizados por inteligencia artificial y, por el momento, los resultados son muy dispares: en algunos casos ha logrado apenas un 50% de aciertos y, en otros, el 80%.

Por norma general, la precisión de estas herramientas, en manos de profesionales, es de alrededor de un 75%. Pero la cifra baja exponencialmente cuando quien lo utiliza es una persona de a pie: un paciente sin conocimientos médicos tiene más complicado detectar cuándo el chatbot está cometiendo un error grave.

“Cuando no tienes conocimiento de los contenidos que estás consultando, no tienes capacidad crítica sobre ellos; y cuando no tienes capacidad crítica, no identificas las alucinaciones”, nos explica Juan José Beúnza, médico especialista en medicina interna y Director del Grupo de Machine Learning Health en Universidad Europea de Madrid. “En ocasiones, las alucinaciones pueden ser leves… Pero también va a haber casos en los que nos van a llevar a diagnósticos erróneos o a ausencia de diagnóstico grave”.

Cuando no tienes conocimiento de los contenidos que estás consultando, no tienes capacidad crítica sobre ellos y no identificas las alucinaciones

Juan José Beúnza

Especialista en Medicina Interna

El nuevo modelo, que, por el momento, no está disponible en Europa, está pensado para integrar datos del usuario a través de servicios como Apple Health, Google Fit o MyFitnessPal para contextualizar las preguntas que el usuario quiera hacerle sobre su estado físico, su dieta y más. Incluso se utilizarán datos sobre otras conversaciones que el usuario haya tenido en el pasado con el ChatGPT básico para tratar de explicar ciertas circunstancias. OpenAI aspira a usar la información que posee sobre hechos como “una mudanza reciente o un cambio de estilo de vida, para que una conversación sobre una cuestión médica resulte más relevante”.

Para Beúnza, la integración con este tipo de aplicaciones ayudará, probablemente, a que la herramienta ofrezca mejores diagnósticos; pero, al mismo tiempo, compartir nuestra información médica con la inteligencia artificial no parece buena idea. “A día de hoy no tenemos ninguna garantía de que esa herramienta cumpla unos criterios mínimos para hacer un almacenamiento correcto de esos datos clínicos. Cada persona es libre de compartir los datos que quiera con ChatGPT, pero me gustaría cuestionarle a estos usuarios si realmente quieren compartir su intimidad más profunda con un algoritmo”.

No tenemos ninguna garantía de que [ChatGPT] cumpla unos criterios mínimos para hacer un almacenamiento correcto de esos datos clínicos

Juan José Beúnza

Especialista en Medicina Interna

El uso que herramientas como ChatGPT, Gemini o Copilot hacen sobre nuestros datos ha sido una preocupación constante de los expertos en ciberseguridad desde el comienzo de su auge en la sociedad. En Italia, ChatGPT ya recibió, a finales de 2024, una multa de 15 millones de euros por uso inapropiado de información recogida a través de conversaciones por los usuarios. “Con ese punto de partida, creo que no tenemos ninguna razón para confiar en ni en la operatividad de la herramienta, ni en la fiabilidad de la empresa al respecto del uso de nuestros datos”, añade el experto. 

Aunque la propia página web de este ChatGPT Salud ya indica que la herramienta se diseñó “para apoyar, y no para sustituir, la asistencia médica”, la realidad es que la propia empresa reconoce que las consultas diagnósticas son muy frecuentes en su plataforma. Así nos lo reconoce Sandra N., de 37 años: “a veces me ha salido un granito raro, o un sarpullido, y me he agobiado, y se lo he mandado a ChatGPT para quedarme tranquila”. Incluso si los usuarios son conscientes de que su opinión no es particularmente fiable, lo prefieren a la incertidumbre: “Sé que no va a saber al 100% qué me pasa, pero hay cosas para las que no vas a pedir cita para el médico… y es una forma de quedarte tranquila y buscar posibles explicaciones”.

Muchos usuarios consultan a ChatGPT cosas que, según ellos, no merecen una visita al médico.
Muchos usuarios consultan a ChatGPT cosas que, según ellos, no merecen una visita al médico.Getty Images

Algunos de los entrevistados mencionaban, también, usar ChatGPT para saber qué preguntas concretas hacer a los profesionales antes de una consulta - un uso, por norma general, menos lesivo - pero el aspecto más frecuentemente señalado es el de la actual lentitud del sistema sanitario español. Es el caso de Juan Pablo, de 38 años, que recurrió recientemente a la plataforma para obtener un diagnóstico. “Me desperté una mañana con un dolor muy fuerte al miccionar y, cuando fui a pedir cita en mi centro de salud, me daban para dentro de 12 días. Le pregunté a ChatGPT, y fui a la farmacia con esa información”, nos confiesa. “No es lo que hubiese querido hacer, pero es la opción que me dejaron”.

La búsqueda de tranquilidad por parte del paciente, especialmente en un contexto donde el acceso a la atención médica puede ser más dificultoso, es totalmente comprensible; pero Beúnza nos recuerda que esa calma no es del todo real. “Al final, estás arreglando un sistema imperfecto con una herramienta imperfecta. OpenAI sabe que esto es un problema que tienen los usuarios, y busca aprovecharse de ello con sus herramientas… Pero el interés no es resolver las preocupaciones en espera de los pacientes, sino crear un negocio”.

Los modelos buscan satisfacer al usuario, no necesariamente decirle la verdad

Juan José Beúnza

Especialista en Medicina Interna

Es en ese negocio donde se encuentra el verdadero núcleo del problema: ChatGPT Salud podría ser un buen aliado a la hora de buscar, por ejemplo, los datos nutricionales de un producto, pedir ayuda sobre rutinas de ejercicio o comprender los valores de un análisis de sangre, pero su función diagnóstica es la que genera la mayor parte de los problemas. La solución aparentemente sencilla sería evitar que la IA diese este tipo de respuestas, pero “los modelos buscan satisfacer al usuario, no necesariamente decirle la verdad. Si se limitan las funciones, no conseguirían lo que buscan: aumentar el volumen de usuarios de manera masiva”.

Por el momento, eso sí, su implementación parece complicada en España y Europa. El Reglamento de General de Protección de Datos de la Unión Europea, una ley más firme que las disponibles, por ejemplo, en Estados Unidos, obligaría a OpenAI a ajustarse a unos controles muy estrictos al respecto del uso y transferencia de estos datos sanitarios para los que, al menos por el momento, la aplicación no está preparada.

Periodista graduada en la Universidad de Zaragoza y especializada en videojuegos, tecnología retro, y tener demasiadas plumas estilográficas. También me podéis ver en Eurogamer.

Etiquetas