El anhelo por la Inteligencia Artificial General (IAG) se remonta a los inicios de la IA a finales de la década de 1950. Dicho interés se desvaneció casi por completo a partir de finales de los años 70, para reaparecer con fuerza en la década de 2010, momento en que compañías como OpenAI comenzaron a utilizar el término, inicialmente para definir una inteligencia comparable o superior a la humana, y posteriormente como una estrategia de marketing.
Las imágenes corporativas manifestaban esa aspiración: Dario Amodei, de Anthropic, hablaba de “genios en un centro de datos” aptas para hallazgos transformadores. OpenAI definía la IAG tal como esa IA con potencial para producir 100.000 millones de dólares en ganancias.
Una imagen muestra un robot con inteligencia artificial interactuando con una pantalla táctil.
Aunque los líderes tecnológicos como Altman, Amodei, Hinton y Hassabis, afirman que la IAG está “a solo dos años vista”, la realidad es que este triunfalismo choca con la opinión de la comunidad investigadora. Una encuesta de la AAAI (Association for the Advancement of Artificial Intelligence) mostró que el 84% de los investigadores considera que las arquitecturas neuronales actuales son “insuficientes para alcanzar la IAG”. A su vez, académicos como Emily Bender o Henry Farrell sostienen que los grandes modelos de lenguaje nunca podrán ser inteligentes como los humanos porque no crean; solo reflejan, comprimen o remezclan contenidos existentes generados por humanos.
Aún más crucial es considerar quién se beneficia de este optimismo desmedido sobre la IA general y de qué manera influye en la dirección de la IA actual. La IA general se ha transformado en una meta abstracta que opaca otras aspiraciones. Se postula como una fuerza capaz de abordar las dificultades más significativas, lo que legitima cualquier desembolso o sacrificio ético. Eric Schmidt, quien fuera CEO de Google, llegó a restar importancia a las repercusiones climáticas de la IA, argumentando que los seres humanos carecen de buena coordinación y que la IA general, en última instancia, resolverá el cambio climático. Este argumento representa un tecnosolucionismo radical, que transforma los inconvenientes sociales y políticos en meros retos técnicos, ignorando la colaboración global y la asistencia humanitaria indispensables para soluciones efectivas.
IAG exhibe su pericia en marketing y su impacto ideológico, superando su habilidad tecnológica.
Mantener la IAG como un objetivo constante legitima gastos exorbitantes en instalaciones y medios. La estrategia de aumentar la escala de datos y procesamiento ha fortalecido la influencia de un número reducido de compañías. La persecución de la IAG intensifica esta centralización, sugiriendo que el progreso se basa más en la potencia de cálculo que en hallazgos científicos.
Un antecedente histórico se halla en la Strategic Computing Initiative de la década de 1980, un proyecto de la administración Reagan concebido para potenciar la IA con propósitos bélicos y comerciales, ante la aprensión por la rivalidad nipona. Dicha iniciativa, que recibió mil millones de dólares de fondos públicos, resultó ser un fracaso rotundo. Los análisis posteriores estuvieron de acuerdo en que sus aspiraciones no se fundamentaban en avances científicos, sino en expandir el poder de procesamiento. El razonamiento que hoy sustenta la IAG es idéntico.
Elevar la IAG sobre otros medios de resolver problemas refuerza la autoridad de los líderes de las grandes tecnológicas, quienes, a menudo, carecen de sensibilidad social. Esta lucha ha caracterizado la última década de desarrollo de IA: los profesionales humanos con experiencia práctica no son tenidos en cuenta en la toma de decisiones sobre la implementación de esta tecnología.
Hay casos evidentes: profesionales de la salud y educadores que reclaman un rol en la incorporación de la IA en sus respectivos campos. Con mucha frecuencia, esta implicación ha sido meramente formal: convocatorias tardías y sin autoridad genuina. La IA generativa intensifica el reto debido a su naturaleza conceptual y radical. Los relatos sobre sus repercusiones laborales retratan a los empleados como receptores pasivos —o víctimas secundarias— del cambio, sin considerar su conocimiento y aptitud para dirigir el proceso. Este discurso acentúa la percepción de un destino tecnológico ineludible, privando a los involucrados de control y expresión.
Grandes compañías de tecnología están dando preferencia a la inteligencia artificial generativa por encima de otras alternativas, fortaleciendo a sus directivos.
La IAG revela más sobre el poder que sobre la tecnología. Concebida inicialmente como un concepto técnico, se ha convertido en herramienta de marketing, ideología y motor de inversión, manteniendo viva la ilusión de una transformación inminente, incluso cuando los expertos cuestionamos no solo su viabilidad sino también su necesidad.
Su narrativa enmascara las deficiencias de las tecnologías existentes, desvía la atención de las problemáticas sociales y la discusión ética sobre la idoneidad de su despliegue, centraliza la autoridad en un pequeño grupo de empresas que dominan la información y el procesamiento, y fomenta una dinámica donde las expectativas futuras infundadas legitiman gastos tecnológicos imprudentes en detrimento de la inversión en capital humano.
Ramon López de Mántaras. Instituto de Investigación en Inteligencia Artificial (CSIC)
