Los Nobel se suman a la moda de la IA

Análisis

Si la inteligencia artificial no estuviera en boga, difícilmente hubiera ganado el premio de Física

Horizontal

Geoffrey Hinton, uno de los galardonados con el Nobel de Física 

Mark Blinch / Reuters

La Real Academia Sueca de Ciencias entregará sus prestigiosos premios Nobel el 10 de diciembre en Estocolmo. El de Física será entregado a John Hopfield y a Geoffrey Hinton. Éste último es un científico pionero en aprendizaje profundo, un método de aprendizaje máquina que es la base de muchos de los modelos de Inteligencia Artificial (IA) más conocidos hoy en día. Hopfield por su parte inventó un tipo de redes neuronales artificiales, que llevan su nombre, inspiradas en el funcionamiento de la memoria asociativa del cerebro, que pueden almacenar y reconstruir imágenes (y otros tipos de patrones en los datos) partiendo de solo información parcial de dichas imágenes (o patrones).

Por otra parte, el Nobel de Química se entregará a David Baker, bioquímico de la Universidad de Washington que lo compartirá con Demis Hassabis, cofundador y CEO de DeepMind, y con el director de esta empresa, John Jumper. Los investigadores de DeepMind han sido premiados por el desarrollo de AlphaFold, una herramienta que puede predecir cómo es la estructura tridimensional de las proteínas. Baker fue reconocido por sus trabajos sobre el diseño de nuevas proteínas usando IA. Las implicaciones de las contribuciones de los tres galardonados son gigantescas para comprender la biología, la salud y las enfermedades. Sus hallazgos abren las puertas al desarrollo de nuevas y más eficaces terapias, ofreciendo la esperanza de tratamientos innovadores para diversas patologías.

Tanto el Nobel de Física como el de Química han premiado avances en IA

En el mundo informático, cuando la comunidad científica persigue avanzar en la resolución de algún problema difícil e importante, es frecuente que haya concursos internacionales periódicos que midan el progreso hacia la resolución del problema. En 2012, el equipo de Hinton sorprendió al mundo ganando un concurso de reconocimiento de imágenes con un modelo de red neuronal artificial, conocido como AlexNet, que marcó un antes y un después en el reconocimiento de imágenes. Del mismo modo, DeepMind arrasó en 2018 y 2020 en el concurso CASP (Critical Assessment of protein Structure Prediction) de predicción de la estructura de proteínas. Con el software AlphaFold, demostró una capacidad sin precedentes para predecir estructuras proteicas con una precisión superior a la de costosos métodos clásicos como la cristalografía de rayos X, la microscopia electrónica o la resonancia magnética nuclear, y con una pequeña fracción del coste y tiempo.

Estos logros no son fruto únicamente de innovaciones algorítmicas. El progreso ha sido posible gracias a la confluencia de varios factores, como el acceso a grandes volúmenes de datos y mejoras en el hardware, especialmente en el uso de unidades de procesamiento gráfico (GPU), que aceleraron considerablemente los tiempos de entrenamiento de los modelos. Todos estos desarrollos son el fruto de un esfuerzo multidisciplinar. En campos de aplicación importantes, se identifican los problemas a resolver y, con la colaboración de los especialistas en los correspondientes campos de aplicación, se han alcanzado éxitos como los que han dado lugar a los premios Nobel. 

El Nobel podría amplificar las absurdas declaraciones de Hinton sobre supuestas superinteligencias que amenacen la humanidad

La informática en general y en particular el aprendizaje automático, como parte integrante de la IA, son piezas clave en un gran número de investigaciones multidisciplinares. Se han convertido en herramientas transversales y necesarias para alcanzar nuevos descubrimientos. No es un papel inédito. Las matemáticas han servido para hacer avanzar otras disciplinas. Sólo hay que recordar algunos premios Nobel de Economía. 

En 1973 Wassily Leontief ganó el premio por un método de búsqueda de un equilibrio (insumo-producto) que aplica el álgebra de matrices. En 1990 Harry Markowitz fue laureado por haber desarrollado la teoría de la elección de carteras (portfolio). John Forbes Nash desarrolló la “teoría de juegos no cooperativos” y los procesos de negociación,  por lo que también recibió el Nobel de Economía en 1994. Este caso es quizás el más conocido popularmente porque su vida fue narrada en la película “Una mente maravillosa” (2001). Más tarde, en 2015, Nash obtuvo también uno de los más prestigiosos galardones en matemáticas, el premio Abel, por sus contribuciones a la teoría de las ecuaciones en derivadas parciales.

Horizontal

Demis Hassabis (izquierda) y John Jumper, dos de los premiados con el Nobel de Química 

Alastair Grant / Ap-LaPresse

El trabajo multidisciplinar hace avanzar el conocimiento hacia la resolución de problemas en campos concretos del saber. Pero las herramientas transversales como las matemáticas o la IA, a veces forzadas por la resolución de problemas en ámbitos concretos, pueden también provocar avances espectaculares que luego se aplican con éxito en otros ámbitos. La IA que se premia en los Nobel de 2024 ha cambiado las reglas del juego en múltiples campos científicos. Las redes neuronales y, más recientemente, los modelos de lenguaje basados en transformers, como el que impulsa ChatGPT, son ejemplos de estas herramientas transversales. 

El progreso de la IA en los últimos años ha hecho que esta disciplina atraiga una enorme atención mediática y popular. Posiblemente, si la IA no estuviera tan de moda el Nobel de Física no hubiera recaído en Hopfield y Hinton teniendo en cuenta, además, que sus contribuciones no son a la Física. Lo que no debería suceder en ningún caso es que este Nobel de Física sirviera para amplificar las absurdas declaraciones de Hinton sobre supuestas futuras superinteligencias que pongan en peligro la humanidad. Al contrario, estamos convencidos de que el futuro de la IA está por escribir. Es decir que depende de nosotros que sirva, o no, para hacer del mundo un lugar mejor.

La IA necesita repositorios de datos bien curados y estandarizados para seguir avanzando en beneficio de la humanidad

Para terminar, queremos hacer una reflexión sobre el papel de los datos. Estamos convencidos de que uno de los desafíos más importantes para el desarrollo futuro de la IA será garantizar que los modelos se entrenen con datos de alta calidad. El éxito alcanzado con AlphaFold ha sido posible, en gran parte, gracias a la base de datos de proteínas conocida como Protein Data Bank: un repositorio de datos altamente curados y estandarizados. Desafortunadamente, en muchas otras áreas, los datos disponibles no tienen la calidad necesaria para que el uso de la IA, por sofisticada que sea, produzca resultados tan espectaculares como los conseguidos con AlphaFold. La IA no es mágica, depende completamente del trabajo de una amplia comunidad de investigadores que han creado las herramientas que hoy en día están transformando la ciencia.

De cara al futuro, es esencial garantizar que la IA siga avanzando de manera rigurosa y basada en datos de alta calidad. Solo así su potencial transformador podrá seguir beneficiando a la humanidad.

Ramón López de Mántaras es Profesor de Investigación del Instituto de Investigación en Inteligencia Artificial del CSIC

Pedro Larrañaga es catedrático de la Universidad Politécnica de Madrid

Antonio Bahamonde es catedrático de la Universidad de Oviedo

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...