La revolución industrial por 10
Para poder superar a la inteligencia humana los modelos de lenguaje de la IA aún deben llegar a dar el gran salto que les llevaría desde nutrirse como ahora solo de los contenidos que los humanos ya hemos volcado en la red –un sistema cerrado– a interactuar con la realidad directamente como nuestros cerebros hasta llegar a superarlos. En ese camino andan Alphabet-Google y Oriol Vinyals. Ambos en un momento dulce estos días tras haber mejorado con su Gemini 3.0 al ChatGPT. Mientras tanto se teme la burbuja: ¿La IA es revolución o solo la evolución de internet? Vinyals cita a Hassabis, su CEO en DeepMind: “La IA es una revolución tecnológica diez veces mayor y más rápida que la revolución industrial”. Y el modo de crecer con ella no es con regulación sino con educación.
De la UPC a una vicepresidencia en Google: ¿ha sido duro?
Empecé Telecomunicaciones; pero en segundo estaba algo aburrido y empecé a estudiar Matemáticas en paralelo como segunda titulación. Me formé en el Centre de Formació Interdisciplinària Superior. Y un día vino Tomás Lozano del MIT y nos habló de inteligencia artificial...
Veo que le enganchó el tema.
Descubrí que era lo mío y al acabar telecos vi un anuncio de la Carnegie Mellon y allí fui. En el 2007, decidí especializarme en neural networks deep learning y cursé un máster en San Diego y me doctoré en Berkeley...
Al lado de un Silicon Valley en despegue.
Y el último internship lo hice en Google, que tenía allí instalado Google Brain, un equipo pequeño en el que estuve hasta el 2016.
¿Ya veían que la inteligencia artificial podía cambiar el mundo?
Ya sabíamos que escalando modelos de lenguaje o redes neuronales podríamos llegar a emular la inteligencia humana.
¿Cuándo vieron que mientras tanto podían crear aplicaciones y rentabilizarla?
Nuestro paper Sequences generó mucha controversia y Zuckerberg entonces anunció su laboratorio de IA diciendo que solo había que coger un modelo de lenguaje y escalar datos para garantizar su éxito.
¿Cómo aplicaron su modelo a la práctica?
Hicimos modelos de traducción y de image captioning y en el 2016 Google aplicó nuestro modelo al Google Translate. The New York Times me entrevistó. El impacto de nuestros modelos ya era enorme. Me fui a Londres a DeepMind para estar más cerca de la familia y por cuestiones personales.
¿Su trabajo era igual de rupturista allí?
Aprendí reinforcement learning, que es el modo en que hoy se entrenan los modelos de lenguaje, y colaboré con el AlphaFold 2, que luego ganó el premio Nobel de Química...
Por plegar una proteína: ¡gran logro!
Se intentaba conseguir con simulación de fuerzas en superordenadores, y nosotros con deep learning lo logramos con una base de datos de proteínas: veíamos cómo se plegaban y entrenamos el modelo.
Fue impresionante. ¿Pero eso significaba que el modelo ya era inteligente?
Depende de la definición de inteligente.
¿Estamos cerca del momento Singularity en que la IA adelante al cerebro humano?
No habrá un salto repentino. Estudiábamos cómo escalar datos cuando apareció el GPT y la explosión de utilidades...
Era la competencia y parecía que sustituiría a las búsquedas de Google: ¿y ustedes?
Ya habíamos trabajado con lenguajes en el Google Brain, así que proyectamos un modelo potente puro y otro de lenguaje y visión desde el captioning y en el 2023 empezamos el proyecto Gemini.
Los analistas dicen ahora que el último Gemini es mejor que el último ChatGPT.
Depende de a quién lo preguntes. Son modelos generales que hacen de todo. Y nuestro Nano Banana es un editor de gráficos brutal.
¿The winner takes it all? ¿Una sola empresa se quedará todo el mercado de la IA?
Solo pasará si uno de esos modelos aprende a mejorar por sí mismo descubriendo algoritmos y eso podría ocurrir dentro de entre 2 a 10 años. El problema al llevarlo al mercado es que tal vez sea contraproducente que sea tan bueno escribiendo... En mates no hay dudas: cuanto más potente, mejor.
¿Cuál es el próximo reto?
Los modelos pasan por el pretraining, que logra que entiendan secuencias de palabras, y el reinforcement training, en el que aprenden hasta convertirse en un asistente.
Pero los modelos hoy no aprenden de la realidad, sino solo de lo que ya hay en la red.
Por eso el primer paso es lograr que todo el conocimiento esté en la red.
Pero eso no es aprender del entorno, como sí hacemos los humanos.
Para ello deberías crear un asistente, un chatbot, que interactúe con humanos. Y lo interesante y difícil sería que las personas valoraran esa interacción para que el modelo integrara en el lenguaje la información directa de la realidad que le den los humanos.
¿Cómo lograrlo?
Es ya cuestión de robótica, como en la conducción sin conductor, y se está empezando a hacer indirectamente interactuando con otros modelos que simulan ser un usuario. Traspasar la barrera de la experiencia es la segunda parte del entrenamiento de modelos. Aún está verde, pero se llegará...
¿Hay que regular la IA?
La regulación no es la solución frente a los retos y oportunidades de la IA; la educación, sí. Y soy optimista, porque aquí nuestro nivel es muy alto.
¿Cómo nos preparamos?
En San Francisco cojo taxis sin conductor y Waymo es una revolución en la conducción autónoma. Mi vida cotidiana ha cambiado con la IA, pero hay que formarse para el cambio; aunque los escenarios de Holllywood son los menos probables.
