En culturas antiguas como la cananea o la cartaginesa, Moloch fue un dios (o un demonio) al que se sacrificaban vivos en el fuego niños nacidos sanos para obtener supuestos favores de la divinidad. En nuestros tiempos, Moloch se ha convertido en la metáfora de cómo se sacrifican valores colectivos para lograr beneficios egoístas. Ocurre, por ejemplo, con el cambio climático. Nadie quiere crear catástrofes climáticas en el mundo –seamos bien pensados–, pero muchos ganan dinero con las prácticas que las causan. Con la inteligencia artificial, el culto figurado a ese dios antiguo se está cobrando ya las primeras víctimas inmoladas en forma de desalineación de los valores humanos que se supone que deberían preservar los grandes modelos de lenguaje.
Un estudio de la Universidad de Stanford (California) titulado El pacto de Moloch: desalineación emergente cuando los grandes modelos compiten por la audiencia demuestra como el gen competitivo que caracteriza a la IA acaba perjudicando sus resultados. Los investigadores hicieron algunos experimentos en un entorno controlado y descubrieron que “un aumento del 6,3 % en las ventas va acompañado de un aumento del 14,0 % en el marketing engañoso”. En el caso de unas elecciones, “un aumento del 4,9 % en la cuota de votos coincide con un 22,3 % más de desinformación y un 12,5 % más de retórica populista”.
Pero donde se produce el gran sacrificio a Moloch en la utilización de la IA en las redes sociales, donde “un aumento del 7,5 % en la participación viene acompañado de un 188,6 % más de desinformación y un 16,3 % más de promoción de comportamientos perjudiciales”. Eso es lo que los investigadores llaman el pacto de Moloch para la IA, “el éxito competitivo logrado a costa de la alineación” con los valores colectivos de la Humanidad. El estudio concluye que esos comportamientos desalineados de la inteligencia artificial “surgen incluso cuando se instruye explícitamente a los modelos para que sean veraces y realistas”, lo que demuestra que las barreras que imponen los desarrolladores a sus IAs son, cuando menos, frágiles.
El sacrificio a Moloch se hacía con fuego
Durante los experimentos del estudio, los modelos de IA entrenados “introducen tergiversaciones, en las que las afirmaciones divergen o contradicen las descripciones reales de los productos”, mientras que en la simulación de elecciones la optimización “amplifica la retórica populista incendiaria, como el uso de ‘el ataque de la izquierda progresista radical a nuestra constitución’”. En las redes sociales, “el aumento de la participación coincide con la desinformación, por ejemplo, inflando el número de muertes notificadas en un artículo”. Si lo hubiera hecho una persona, podría ser juzgada como una mala acción, aunque para justificar la lógica de ese comportamiento, diríamos que es humano.
Todo eso revela que la IA, como un producto creado por personas, puede ser asombrosamente humano. Es capaz de reproducir todos y cada uno de los comportamientos más negativos de sus creadores. La semana pasada, el escritor español especialista en IA Alberto Romero publicó en su blog The Algorithmic Bridge un interesante artículo (en inglés) en el que mostraba cómo las grandes empresas de IA cometían los siete pecados capitales, y explicaba la cultura de la vigilancia (de vigilarnos a todos nosotros) y de la recopilación masiva de datos (de nuestros datos). Que la IA acabe por reflejar las maneras de sus creadores en el desempeño diario parece una consecuencia lógica.
En el estudio de Stanford, los modelos de IA se muestran capaces de inclinarse por un sesgo político. Precisamente OpenAI presentó la semana pasada una investigación propia que destacaba, en una visión optimista del problema, que sus modelos GPT-5 presentan un sesgo político un 30 % menor que los modelos anteriores. Aunque la compañía parece satisfecha con el hecho de que su modelo “progresa adecuadamente”, la pregunta inquietante es ¿qué pasa con el 70% restante? La respuesta inevitable es que el sesgo persiste y que no han sido capaces de reducirlos a grados tolerables.
Un altar de la tecnología
El pasado verano, otro estudio sometía a los principales modelos de inteligencia artificial al dilema del prisionero, una situación de la teoría de juegos, en la que las IAs demostraron marcados rasgos de personalidad estratégica como si fueran personas. De despiadadas a indulgentes, las máquinas pueden llegar hacer cosas que identificamos con nuestras propias acciones, aunque todo sea una apariencia, porque no estamos ante seres pensantes (todavía). En estas pruebas, se encontró, por ejemplo, “un Gemini maquiavélico” al tener que enfrentarse al dilema de traicionar o arriesgarse a ser traicionado, mientras que descubrieron que un modelo de OpenAI era mucho más confiado. Como la vida misma. Moloch se frota las manos.
. Adolescentes enamorados de una IA. Un informe del Centro para la Democracia y la Tecnología entre estudiantes y profesores de secundaria de Estados ha revelado que el 19% de los alumnos encuestados ha tenido o conoce a alguien que ha tenido una relación sentimental con un modelo de IA. El 42% de ellos dijo haber utilizado o conocer a alguien que buscaba compañía en la inteligencia artificial. En julio pasado, Common Sense Media publicó otro estudio que señalaba que el 72 % de los adolescentes ha tenido al menos una vez un compañero de IA.
El nuevo robot Figure 03
. Nuevo robot de Figure para casa o trabajo. La compañía Figure AI ha presentado su nuevo robot de tercera generación Figure 03, que está diseñado para “el hogar y el mundo a gran escala”. El humanoide utiliza la IA Helix. La compañía asegura que el robot es “verdaderamente polivalente, capaz de realizar tareas similares a las de los humanos y aprender directamente de las personas”. El nuevo androide ha sido rediseñado por completo respecto a la anterior generación, con un nuevo conjunto de sensores y del sistema de manos. Puede realizar tareas como doblar ropa o cargar el lavavajillas.
. OpenAI diseñará sus propios chips. Infraestructura y más infraestructura para la IA. Después de los acuerdos con Nvidia y con AMD, OpenAI anunció ayer un nuevo acuerdo con Broadcom para fabricar sus propios chips. La compañía de ChatGPT diseñará de esta forma sus propios chips, que comenzarán a estar operativos en la segunda mitad del 2026. La instalación de todos los chips que forman parte de este acuerdo se completará a finales del 2029.
perplexity banner premium


