Hace dos años y medio escribí en las páginas de este periódico un artículo titulado El futuro es mañana intentando imaginar como la IA podría cambiar nuestra profesión médica. Escribí aquellas líneas sin conocer que quince meses después aparecería ChatGPT y con el optimismo de que la IA podría complementar y ampliar nuestro conocimiento en el abordaje de las enfermedades.
Hoy, con perplejidad ante la magnitud y la velocidad con la que esta tecnología está evolucionando, el optimismo ha dejado paso a la preocupación al observar que vamos muy por detrás de los acontecimientos. Desde múltiples foros llevamos años analizando cómo deberíamos reformar nuestro sistema sanitario para hacerlo sostenible, para abordar la creciente longevidad, para orientarlo a la predicción y prevención personalizada y para paliar la falta de personal sanitario.

El uso de la IA en el área de la biomedicina está impulsando numerosas iniciativas que van desde procesos diagnósticos más rápidos hasta un mejor seguimiento de los tratamientos
Aunque esta aproximación es totalmente pertinente, el temor es que la explosión de la IA va a hacer saltar por los aires cualquiera de estos planteamientos si se abordan desde una perspectiva tradicional. Ya es más que urgente aceptar que la IA excederá en mucho nuestra capacidad de prevenir, diagnosticar y tratar. Y, por tanto, deberíamos estar anticipando si tendremos la capacidad de regular esta tecnología y cómo deberíamos hacerlo, cómo nos dotaremos de mecanismos para identificar y corregir sus posibles errores y cómo evitaremos un posible uso perverso.
Uno de los grandes hitos de la civilización actual es habernos dotado de mecanismos de autocorrección en la investigación científica y esto ha dado validez a los avances médicos en contraposición con los planteamientos pseudocientíficos tan en boga hoy en día. La revisión por pares de los artículos en las revistas científicas, la incorporación a la práctica clínica de los avances solo cuando han sido verificados por diferentes autores y la metodología de los metaanálisis para corroborar tendencias cuando los resultados de diversas investigaciones no son concluyentes constituyen herramientas que, aunque imperfectas, garantizan en buena medida la validez de los hallazgos.
Pero, ante la irrupción de la IA en la investigación médica utilizando millones de datos reales provenientes del seguimiento de pacientes o con la creación de gemelos digitales, se abren múltiples preguntas. ¿Quién o qué garantizará la veracidad de los resultados de la IA? ¿Seremos los humanos capaces de hacerlo si desconocemos de qué postulados parte y cómo llega a las conclusiones? ¿Debemos esperar que sea la IA quien organice sus propios mecanismos de autocorrección y validación? ¿Nos pondremos de acuerdo en cómo nos organizamos los humanos ante este nuevo mundo? ¿Qué papel, si alguno, tendremos los médicos en este nuevo paradigma? ¿Quién lanzará el cambio drástico en las universidades para formar profesionales sanitarios ajustados a estos cambios y más cercano a lo que serían agentes de salud que ayudan al paciente a tomar sus propias decisiones? ¿Tendremos que aprender cómo formular las preguntas a la IA o ni tan siquiera esta tarea nos será reservada a los humanos?
Demasiada incertidumbre para quedarnos cruzados de brazos o para seguir buscando respuestas a viejas cuestiones sobre un futuro que no sucederá porque quedó atrapado en el ayer.