Seth Donoughe, científico investigador de SecureBio: “Por primera vez en la historia, prácticamente cualquiera podría crear armas biológicas a través de un experto en virología con IA ”
IA Y ÉTICA
Más de 180 científicos han firmado un acuerdo por el uso seguro, ético y responsable de la IA
La IA puede ayudar a planificar un ataque biológico, pero no a fabricar armas bacteriológicas

Un estudio revela que la IA supera a los virólogos en la solución de problemas en un laboratorio.
Tras la consolidación de la inteligencia artificial como tecnología de uso diario en, prácticamente, cualquier sector, mucho se ha hablado sobre los riesgos que conlleva. La gran pregunta es si realmente somos conscientes de hasta dónde podría llegar su alcance y cómo podría transformar nuestra vida, tanto de forma positiva como negativa. De hecho, cada vez son más los expertos que hablan sobre las facilidades que trae consigo la IA, pero no de los aspectos más arriesgados de su desarrollo.
Un estudio publicado en la revista Time y llevado a cabo por investigadores del Centre for AI Safety en colaboración con otras entidades pone de manifiesto una realidad, hasta ahora, incierta: la inteligencia artificial ya supera a los científicos especializados en virología. Concretamente, en el diseño y planificación de un test práctico para medir la capacidad de solucionar problemas que surjan en los procedimientos más complejos dentro de un laboratorio.
Las conclusiones, según Seth Donoughe, científico de SecureBio y coautor del estudio, son alarmantes. “Por primera vez en la historia, cualquier persona tiene acceso virtual a un experto en virología con IA que le podría guiar en los procesos de creación de armas biológicas”, expresa Donoughe.
Los límites de la IA en materia de bioseguridad
El Center for AI Safety, el MIT Media Lab, la Universidad Federal de ABC en Brasil y la organización SecureBio realizaron un estudio cuyo objetivo era medir la capacidad que tenían diversos modelos de IA para solucionar problemas que pudieran surgir en un laboratorio de virología.
El estudio demostró que algunos modelos de IA de OpenAI y Gemini de Google superaron la capacidad de los virólogos a la hora de identificar y solucionar estos problemas. Concretamente, el modelo o3 de OpenAI logró una precisión del 43,8%, y el modelo Gemini 2.5 Pro se quedó en un 37,6%. Ambos superaron la capacidad media obtenida por los científicos, de un 22,1%, realizando las mismas pruebas.
Estos resultados ponen de manifiesto algo que, hasta ahora, no se había planteado. La capacidad que demuestran los modelos basados en IA en materia de virología hace que los investigadores se cuestionen hasta qué punto podría ser accesible a cualquier persona la creación de armas biológicas a través de la IA.
En este sentido, Donoughe admite que “a lo largo de la historia, ha habido muy pocos casos donde alguien ha intentado crear un arma biológica, y una de las razones por las que no tenían éxito era porque no tenían acceso al nivel adecuado de experiencia”. Ahora, con la IA, esto puede cambiar.
Una preocupación que no es nueva
La investigación evidencia una realidad potencial que, sin embargo, no es nueva dentro del ámbito de la ciencia. El año pasado, tal y como recoge The New York Times, ya hubo expertos que alertaron sobre la facilidad que ofrece la IA para que cualquier persona acceda a la información para provocar graves problemas de salud pública, como la propagación de enfermedades.
Con el fin de realizar un uso responsable de la tecnología y proteger a la población, más de 180 biólogos y científicos han firmado un acuerdo para exigir que se utilice la inteligencia artificial de forma ética y segura. La declaración muestra el compromiso de la comunidad científica, precisamente, contra la creación de armas biológicas que supondrían una amenaza a nivel global.
El documento, titulado “Responsible AI x Biodesign”, refleja cuáles son los valores según los que los científicos se comprometen a trabajar en el desarrollo de la IA, siempre rigiéndose por el beneficio de la sociedad, la seguridad y la responsabilidad.

