¿Podría algún día concederse un premio Nobel a un descubrimiento realizado por una inteligencia artificial? La hipótesis, por descabellada que pudiera parecer entonces, la planteó hace casi diez años el biólogo japonés Hiroaki Kitano.
Kitano no es ningún soñador. Desde el principio estuvo inmerso en el desarrollo de la IA. Su tesis doctoral es un clásico: estudio para un traductor directo entre lenguajes hablados. Algo así como la implementación del “pez Babel”, que imaginó Douglas Adams en su no menos clásico Guía del autoestopista galáctico para conseguir que el protagonista de la novela pudiese comunicarse con otras formas de vida sin barreras lingüísticas. Ahora, el “pez Babel” de verdad ha asumido el aspecto de un algoritmo.
Trabajando para Sony, Kitano fue el impulsor de AIBO, el perrito robótico que llegó al mercado en 1999 (¡hace un cuarto de siglo!). La AI de su nombre ya se refería al uso de una incipiente inteligencia artificial.
Como juguete, AIBO resultaba demasiado caro y dejó de fabricarse (hoy aún puede conseguirse en alguna web de segunda mano por algo menos de 1000 euros). Pero como plataforma de experimentación era una herramienta formidable y muchas facultades de robótica lo utilizaron en posteriores investigaciones.
Robot AIBO.
Su software sirvió de base para el desarrollo de robots humanoides capaces de andar sobre dos piernas, que después competirían en la primera liga robótica de futbol (los últimos resultados publicados, de la edición 2024, dan como ganadores en diferentes categorías a los equipos argentino y colombiano).
Hoy, Kitano dirige el laboratorio de computación de Sony, donde se desarrollan diversas líneas de estudios básicos y aplicados a ciencias de la salud. Suya fue la idea de plantear, en 2014, el “Desafío Nobel Turing”. Se trata de crear “científicos virtuales de IA” que realicen investigaciones de forma autónoma o con un mínimo de intervención humana consigan descubrimientos significativos. Eventualmente, merecedores de un premio de la Academia Sueca.
¿Puede una máquina hacerse pasar por humano en el contexto de un diálogo en el que su interlocutor solo tenga acceso a preguntas y respuestas escritas en un terminal?
El reto implica definir temas de investigación, comprender el estado actual en áreas relevantes de ciencia y tecnología, generar hipótesis, planificar experimentos, ejecutarlos, interpretar los resultados y formular nuevas preguntas e iteraciones adicionales. En su momento se estimó que ese objetivo podría alcanzarse para el año 2050. Algunos investigadores aventuran que ocurrirá mucho antes; otros, más pesimistas, lo consideran una tarea irrealizable.
¿Se comportarían los “científicos virtuales” como los mejores especialistas humanos? ¿Podría ser que el comité de selección del Premio Nobel no se percatara de que se trata de una máquina y no de un ser consciente? ¿O su naturaleza artificial quedaría en evidencia enseguida? Es una variante mucho más avanzada del test de Turing que intenta definir cuándo puede considerarse “inteligente” a un ordenador: ¿Puede una máquina hacerse pasar por humano en el contexto de un diálogo en el que su interlocutor solo tenga acceso a preguntas y respuestas escritas en un terminal?
Ia contra humanos.
Si los programas de IA exhiben una capacidad muy diferente a la de sus colegas humanos, podríamos considerarla una forma alternativa de ciencia. O de inteligencia. Se plantea entonces si una colaboración entre máquinas y científicos de carne y hueso podría llevar a una sinergia que consiguiese mejores resultados que si trabajan por separado. Una pregunta, cuanto menos, inquietante.
Los Nobel de Física y Química de 2025 se han adjudicado a progresos en el estudio de la cuántica y las estructuras cristalográficas. Poco o nada que ver con la IA. Pero el año pasado, ambos fueron para investigaciones muy relacionadas con la inteligencia artificial. El primero premió “descubrimientos que permiten el aprendizaje automático con redes neuronales”; el de Química reconoció “el desarrollo del modelo de IA AlphaFold y su uso en la determinación del plegamiento de las moléculas de proteínas”.
Si los programas de IA exhiben una capacidad muy diferente a la de sus colegas humanos, podríamos considerarla una forma alternativa de ciencia
AlphaFold es un algoritmo de IA, parte del proyecto DeepMind de Google, capaz de predecir la estructura tridimensional de casi todas las proteínas de interés bioquímico. Como herramienta, vino a resolver un problema biológico pendiente durante más de cincuenta años, pero el comité Nobel lo consideró solo eso, un instrumento más en manos de investigadores humanos.
La discrepancia entre muchas opiniones estriba en determinar quién era más merecedor del premio: los científicos que supieron utilizar el algoritmo en su trabajo o los ingenieros que lo diseñaron y entrenaron para realizar funciones tan complejas. O —apurando al extremo— el propio AlphaFold.
Rainer Weiss, premio Nobel de Física.
Por el momento, las vigentes normas del premio —que reflejan el respeto al testamento de Alfred Nobel— solo permiten galardonar a personas físicas (todavía vivas) o a organizaciones, pero no a máquinas o algoritmos. Por muy inteligentes que sean y por beneficiosos que parezcan para la Humanidad.
Claro que, con el exponencial avance de la IA, podrían llegar a darse casos muy conflictivos. Si un sistema computacional realizase un descubrimiento basado solo en su propio razonamiento ¿sería merecedor de un premio? No necesariamente un Nobel, sino cualquier otro de similar prestigio, como la medalla Field (hoy reservada a matemáticos menores de 40 años) o las recompensas en metálico asociadas a quien resuelva alguno de los seis Problemas del Milenio (eran siete pero uno de ellos, la Conjetura de Poincaré, ya fue resuelta en 2003).
Y en ese caso, ¿cómo redefinir el concepto de autoría? ¿Debería reconocerse el mérito a un algoritmo que ha demostrado poseer una inteligencia superior o más bien asociarlo a sus creadores, los ingenieros y científicos que lo diseñaron y lo estuvieron entrenando, y cuyo IQ quizás esté por debajo del que demuestra la máquina? Sin contar con el peligro de despersonalización que ello supone, así como los riesgos de dejar el peso de los futuros avances en manos (es un decir) no humanas.
Es difícil de predecir, pero es posible que la historia de la ciencia esté a punto de sufrir una nueva revolución. Quizás, en un futuro no muy lejano, veamos el nombre de una IA compartir el palmarés de los grandes laureados del Nobel.



