ChatGPT, Gemini, DeepSeek, Grok. Ninguna se libra. Todas las IAs están regurgitando palabra por palabra propaganda del estado ruso, dejando ojipláticos a sus creadores. Específicamente, cuando se les pregunta por la guerra de Ucrania, no es solo que estas IAs se pongan del lado de Rusia, sino que llegan a citar a medios controlados por el estado ruso. ¿Cómo ha llegado a pasar esto? Pues por extraño que parezca, por la propia naturaleza de lo que llamamos IA.
La propaganda siempre ha existido, pero en la era de Internet está más presente que nunca. Puede llegar a una audiencia mundial y hacer que contrastar la información sea más difícil que nunca. Manipular la opinión pública es más sencillo que en ningún otro momento de la historia. Y Rusia, como otros muchos agentes cuestionables de la sociedad, lo ha conseguido haciendo uso de los conocidos como agujeros de datos.
Por agujeros de datos entendemos búsquedas que se hacen en Internet que, por el hecho de tener pocos resultados asociados, se pueden manipular fácilmente para explotar agendas ideológicas, económicas o políticas. Jugando, a partir de ahí, con el volumen. La cuestión no es conseguir que una de esas búsquedas se vuelva popular, sino insertar esas narrativas en cuantas más búsquedas sean posibles para que los motores de búsqueda acaben considerando relevante esa información como para presentarla a sus usuarios. O como es el caso, a la IA.
Este no es un problema nuevo ni exclusivo de las IA. Si alguna vez te has preguntado por qué las recomendaciones de Google son tan malas de unos años a esta parte, o por qué Youtube insiste en recomendarte vídeos que se sitúan en el extremo del espectro político, es precisamente a causa de esto. Porque ciertos agentes sospechosos utilizan estos agujeros de datos para insuflar sus narrativas en los buscadores para que te lleguen sin que te des cuenta.
ChatGPT bloquea conversaciones delicadas.
Aunque ahora en Silicon Valley están entrando en pánico debido a que el tema es particularmente sensible para ellos, es algo que se lleva criticando durante más de una década. Tanto los jóvenes como los adultos se ven constantemente bombardeados por informaciones de dudosa calidad, muchas veces con narrativas interesadas de grupos cuestionables, que ni los gobiernos ni las empresas tecnológicas han podido ni querido gestionar hasta el momento.
¿Por qué no se ha hecho nada al respecto si es algo que no es nuevo? Primero, por interés económico. Esta clase de propaganda crea engagement: mantiene a la gente enganchada, saltando de un vídeo o un artículo de esta clase a otro, suponiendo un beneficio económico para las empresas.
Nos hace preguntarnos cómo deben trabajar los chatbots con el hecho de citar estos recursos
Segundo, por la dificultad que supone cerrar estos agujeros de datos. Distinguir la información manipulada con intenciones maliciosas de la información relevante puede es difícil. Y cuando se identifica, ya suele ser demasiado tarde.
Eso es exactamente lo que ha ocurrido con los chatbots que vomitan propaganda prorrusa. Algo que ninguna de las empresas que trabajan en la IA podía prever, al menos en sus particulares, pero que sí pudieron ver venir. Era evidente que alguien podía explotar los agujeros de información para inyectar lo que quisiera en sus IA. Y no hicieron nada para evitarlo.
Según el Institute of Strategic Dialogue, una organización encargada de combatir el extremismo en las redes, al menos una de cada cinco de las respuestas sobre la guerra de Rusia en Ucrania citan a medios asociados con el estado ruso. Algo que, como muy bien señala Pablo Maristany de las Casas, analista del ISD, “nos hace preguntarnos cómo deben trabajar los chatbots con el hecho de citar estos recursos”.
El problema es que esta pregunta es su propia trampa. Por cómo funcionan los chatbots, no existen filtros. Son bases de datos glorificadas que, cuando se les hace una pregunta dada, revisan entre todas las fuentes que le han dado y responden con una mezcla más o menos aleatorizada de los datos relacionados que tienen. No importa si están bien, si están mal, si están secundados por expertos o simplemente son rumores o conspiraciones: para la IA todo tiene el mismo valor.
Por supuesto, hay un modo de evitar que ocurran estas cosas: hacer una selección de las fuentes que utilizan. Pero ChatGPT, Gemini, DeepSeek y Grok se basan en la búsqueda masiva de información de Internet, utilizando los textos, imagénes y vídeos de lo que encuentran. Una curación de esa cantidad de información es imposible y, además, indeseable por parte de estas empresas.
Esto nos deja dos alternativas: o bien solo confiamos en IAs éticas que hagan uso de bases de datos específicas, transparentes, por las que pagan o fabrican ellos mismos, o bien alguien se encarga de censurar activamente ciertas fuentes. Pero ambas soluciones tienen un problema de base: ni son rentables ni podemos confiar en las empresas para que las lleven a cabo.
La brecha en infraestructura de entre Estados Unidos y China con el resto del mundo es enorme.
La idea de una IA ética es seductora, pero costaría una cantidad de tiempo y dinero que iría contra el crecimiento acelerado y masivo que busca la industria.
La idea de que ciertas fuentes puedan ser censuradas de forma activa es aterradora. ¿Quién decidiría qué se silencia y con qué criterios? Si ese poder recae en empresas, gobiernos o en una alianza entre ambos, el camino hacia el abuso es evidente: pueden empezar vetando la propaganda prorrusa, pero ¿qué impediría que mañana determinen que determinados colectivos vulnerables “no merecen” derechos y que es legítimo borrarlos del debate público o, peor aún, demonizarlos?
Bastaría con ajustar los modelos de IA para que no respondan a ciertas preguntas o para que solo utilicen fuentes sesgadas contra grupos concretos. El resultado sería devastador: una desinformación dirigida desde la raíz, invisibilizando a quienes más protección necesitan.
No es solo una cuestión de eliminar, es una cuestión de contextualizar más para ayudar al usuario a entender las fuentes que están consumiendo
De hecho, esto ya lo hemos vivido. Cuando Grok empezó a hablar del Apartheid y la relación de la familia de Elon Musk con el mismo, el multimillonario se encargó de que su IA ya no hablara más al respecto de este tema. Asegurándose así de blanquear no solo su pasado, sino uno de los pedazos de historia reciente más lamentables de la humanidad.
Eso es posible porque nadie ha querido buscarle las cosquillas a Musk y Grosk. Porque, como hemos señalado, este segundo acercamiento ni siquiera podría funcionar a causa de la existencia de los agujeros de información, los cuales son muy difíciles de identificar y eliminar antes de que se expandan. La única manera de hacerlo es tener un sistema cerrado, controlado, que solo podría ser posible si toda la base de datos está curada o es propietaria de la empresa. Es decir, si hablamos de una IA ética. Exactamente lo que no quieren las empresas de IA.
Como dice Maristany de las Casas, “no es solo una cuestión de eliminar, es una cuestión de contextualizar más para ayudar al usuario a entender las fuentes que están consumiendo”. Pero eso solo es rascar la superficie de este problema. Que los gobiernos y las redes aclaren cuando alguien tiene un sesgo no va a evitar que los chatbots sigan haciendo lo que hacen, porque están programados para eso. Lo único que puede evitarlo es que no existan o que existan solo con sus propias bases de datos.



