“La inteligencia no es conocimiento memorizado, sino aprender nuevas habilidades fácilmente”: la forma de aprendizaje que marcará la nueva era de la IA
Inteligencia artificial
Por qué medir la capacidad de aprender y adaptarse, y no solo de imitar, se ha convertido en el verdadero campo de batalla de la Inteligencia Artificial General
La terapia de luz roja, la nueva moda en el cuidado de la piel que triunfa en redes: ¿mito o realidad?

Niña con ChatGPT.

Durante décadas, el progreso de la inteligencia artificial se ha medido por su capacidad para acumular cada vez más conocimiento, como una especie de gran cerebro sediento de información. Ganar partidas de ajedrez, reconocer imágenes o responder preguntas complejas eran hitos suficientes para hablar de avances históricos.
Sin embargo, todo eso ya se está quedando atrás. En el centro del debate actual sobre la Inteligencia Artificial General (AGI), el próximo paso a dar por esta tecnología, ya no se encuentra cuánto sabe una máquina, sino cómo aprende cuando se enfrenta a algo nuevo.
La definición de AGI —una inteligencia capaz de igualar a los humanos en la mayoría de tareas cognitivas— ha obligado a revisar los criterios clásicos de evaluación. El Test de Turing, durante décadas referencia cultural y científica, se ha mostrado insuficiente para él. Los modelos de lenguaje actuales ya pueden sostener conversaciones indistinguibles de las humanas y, aun así, fracasar en tareas básicas de abstracción. Por eso, no se trata de errores anecdóticos, sino de una limitación estructural sobre la propia tecnología. Es decir, que la imitación del lenguaje no equivale a comprensión.
Uno de los impulsores de esta nueva mentalidad es François Chollet, investigador francés y creador del benchmark ARC-AGI, además de considerado uno de los padres de la futura AGI. Su tesis es que la inteligencia no puede reducirse a la acumulación masiva de datos, sino a algo más.

“La inteligencia no es conocimiento memorizado, sino aprender nuevas habilidades fácilmente”, cuenta.“Para resolver cualquier problema necesitas cierto conocimiento, y luego recombinarlo sobre la marcha”.
ARC-AGI es un test, digamos, para evaluar esa capacidad. Sus pruebas consisten en resolver problemas visuales a partir de muy pocos ejemplos, obligando al sistema a inferir reglas nuevas sin apoyarse en patrones estadísticos aprendidos previamente.
En este terreno, los humanos siguen mostrando una ventaja clara: suelen resolver entre el 60% y el 88% de los ejercicios. Aun así, las mejores inteligencias artificiales generales apenas han alcanzado cifras significativamente inferiores.
Modelos desarrollados por laboratorios como OpenAI, Anthropic o Google DeepMind muestran un rendimiento sobresaliente en tareas lingüísticas, científicas o de programación. Sin embargo, ese rendimiento sigue dependiendo, en gran medida, de la escala: más datos, más parámetros, más computación. ARC-AGI introduce una fricción deliberada frente a esa lógica, al limitar la información disponible y exigir generalización real.
Geoffrey Hinton, Nobel de Física en 2024 y figura central del aprendizaje profundo, advierte de que los sistemas que estamos construyendo no replican la mente humana.“Estamos construyendo seres ajenos a nosotros”, cuenta.


