Bienestar

Bárbara Badanta, investigadora de la Universidad de Sevilla, sobre preguntar diagnósticos médicos a ChatGPT: “Puede agravar problemas de salud ya existentes e impactar en la vida diaria”

Problemático

Una pantalla con las distintas plataformas IA que existen en la actualidad

Una pantalla con las distintas plataformas IA que existen en la actualidad

Mané Espinosa / Propias

El auge de la inteligencia artificial ha cambiado la forma de ver y hacer las cosas por parte de la sociedad. Aunque muchos se aferran a la tecnología tradicional por los temores al robo de datos, falsedades y creaciones sin consentimiento, otros se han subido al barco de usar sistemas como ChatGPT, Sora o Grok, que permiten resolver dudas y generar textos o imágenes en cuestión de segundos. Sin embargo, su uso se ha extendido a un ámbito más personal, sea de compañía artificial o, incluso, de consulta médica.

“Ayer fui al médico. Me mandaron unas pruebas y me darán los resultados en un mes. ¡SOS! No puedo esperar. No saber si podría tener “algo malo” me consume por dentro. Quizás Google, ChatGPT o Twitter puedan ayudarme”, es el ejemplo que publican en The Conversation Bárbara Badanta, docente de Enfermería en Universidad de Sevilla; y Maria Catone, enfermera y doctoranda en el mismo centro. Ambas han expuesto los problemas derivados de confiar en la inteligencia artificial y las redes para saber si estamos o no enfermos. Un hecho que lleva tiempo extendido.

Diversas apps disponibles para ser utilizadas desde ChatGPT
Diversas apps disponibles para ser utilizadas desde ChatGPTF. Bracero

“A la búsqueda repetida de información sobre la salud en internet que, en lugar de tranquilizar, dispara la ansiedad se le llama cibercondría. Cuanto más buscamos, más ansiedad sentimos; y cuanta más ansiedad, más buscamos. Un círculo vicioso que incluso puede agravar problemas de salud ya existentes e impactar en la vida diaria. Así, la obsesión por comprobar síntomas puede llevar a descuidar el trabajo, los estudios o las relaciones personales. La vida cotidiana pierde prioridad frente a la búsqueda compulsiva de información”, exponían.

“Este término apareció en artículos periodísticos de finales de los noventa y principios de los 2000, cuando se hablaba con tono alarmista de los riesgos de internet. Un punto de inflexión llegó en 2009, cuando los investigadores de Microsoft Ryen White y Eric Horvitz demostraron que las búsquedas sobre salud podían intensificar las preocupaciones personales y fomentar el autodiagnóstico”, contaban. Un hecho que quedó en evidencia ante la pandemia del covid-19, bombardeando páginas, vídeos y plataformas de datos con dudoso rigor científicos que cuestionaban incluso la existencia de la enfermedad.

El modo de voz avanzado integrado en los 'chats' de ChatGPT.
El modo de voz avanzado integrado en los 'chats' de ChatGPT.OPENAI / Europa Press

Varios aspectos a tener en cuenta

Entre los factores que amplifican este tipo de búsquedas y su incertidumbre, se encuentran la intolerancia a la incertidumbre, la dificultad para distinguir fuentes fiables y el poder que posee el algoritmo sobre nuestros perfiles. “Muchas personas no saben cómo se decide lo que aparece en los primeros lugares al buscar algo en internet. Los buscadores priorizan resultados llamativos y no siempre equilibrados: escribir ‘dolor de cabeza’ puede acabar dando como resultados ‘tumor cerebral’ en cuestión de segundos, exagerando la gravedad del problema y aumentando la preocupación de quien busca”, ejemplificaban.

Para garantizar un mínimo de seguridad cada vez que indaguemos en Internet, ya que cuenta con fuentes fiables y seguras entre todo lo demás, existe el método CRIBA y sus preguntas clave: “¿Cuándo se revisó esta noticia o información por última vez? ¿Está actualizada? ¿Por qué razón existe esta web, cuenta de red social, blog o artículo? ¿Quieren venderme algo? ¿Qué institución o identidad lo publica? ¿Es una fuente reconocida? ¿Está respaldado por estudios o basado en la evidencia científica? ¿Cuáles son las afirmaciones? ¿Promete algo demasiado bueno para ser verdad?”.

Etiquetas