La guerra en Oriente Medio, la primera retransmitida (falsamente) por la IA
Fact-checking
Las redes se han llenado de vídeos falsos y Grok, la IA de Elon Musk, desmintió erróneamente un vídeo real de la escuela bombardeada

Prueba a la IA

Drones, misiles y la inteligencia artificial. Los avances tecnológicos, también los relacionados con la comunicación, siempre han tenido un papel activo en los conflictos bélicos, y la IA se ha situado como una de las protagonistas en cómo se explica la guerra en Oriente Medio. Desde que Estados Unidos e Israel bombardearon Irán, y Teherán se represalió contra varios países de la península arábiga, las redes sociales se han inundado de vídeos e imágenes falsas generadas por la IA. Grok, la IA de X, también ha tuiteado desinformación.
No es nuevo que las tecnologías de comunicación del momento se utilicen en un conflicto. La invasión de Ucrania fue rápidamente bautizada como la primera guerra de TikTok, un sobrenombre creado por The New Yorker que describe la inmensa presencia de vídeos de bombardeos y enfrentamientos en la red social. Años antes, Facebook también tuvo un papel activo en Siria, después de la Primavera Árabe. Medio siglo atrás, la democratización de la televisión convirtió a Vietnam en una living room war (guerra de la sala de estar), ejerciendo gran influencia sobre la sociedad norteamericana.
Tampoco es una novedad que la desinformación aparezca en medio de una guerra con el objetivo de generar ruido, defender una causa o acusar al enemigo. Fact-checkers de todo el mundo han publicado más de 5.000 verificaciones de contenidos engañosos sobre la guerra de Ucrania.
Lo que sí es nuevo es la facilidad para hacerlo: la inteligencia artificial ha puesto al alcance de todos la posibilidad de crear falsas evidencias sin necesidad de conocimientos de edición fotográfica. Unas herramientas que hace unos años generaban contenidos poco realistas, pero que en los últimos meses han mejorado sustancialmente.
Cuanto más avanza esta tecnología, más potencial de esparcirse tienen las imágenes, y más difícil lo tienen las organizaciones de verificación para poder desmentirlas. Los contenidos hechos con IA protagonizan una de cada cinco verificaciones elaboradas por los miembros del Observatorio Europeo de Medios Digitales (EDMO), del que Verificat forma parte.
La primera guerra de la IA
A principios de año, el ataque norteamericano contra Venezuela y la captura de Nicolás Maduro ya fueron una alerta del peligro que puede causar la IA en situaciones de máxima tensión. Antes de que Donald Trump publicara la fotografía del presidente venezolano esposado (que hizo dudar al New York Times), medios y redes difundieron un puñado de imágenes generadas con IA.
Pero ha sido la escalada bélica en Oriente Medio la que ha certificado las capacidades de la IA de desinformar a gran escala. Mientras que en anteriores conflictos el engaño podía adoptar muchas formas (como la republicación de vídeos antiguos o grabados en otros países), la mayor parte de la desinformación gráfica compartida sobre la guerra en Oriente Medio que ha analizado Verificat incluye contenidos generados con inteligencia artificial. Una búsqueda en Google sobre la guerra en Oriente Medio devuelve decenas de vídeos de los bombardeos hechos con IA.
Ejemplos son los vídeos de misiles contra el Burj Khalifa de Dubái, las falsas cámaras de seguridad registrando explosiones en bases militares iraníes o el aeropuerto de Dubái, o la fotografía del cadáver del ayatolá Ali Jamenei bajo las ruinas de un edificio. Una imagen que se viralizó antes de que se confirmara su muerte.
La desinformación causada por la inteligencia artificial no se ha limitado a la falsificación de pruebas gráficas. En un caso muy mediático, también ha sucedido en el orden inverso: negando una noticia verdadera. Grok, la IA de Elon Musk integrada en la red X, afirmó falsamente que las imágenes de la escuela iraní bombardeada durante el ataque de Estados Unidos e Israel —y que mató a unas 150 personas, mayoritariamente niñas—, eran en realidad de Afganistán. Un falso fact-check que contribuyó a la desinformación sobre los ataques.
En otro ejemplo, Grok dio por buenas las imágenes de supuestas cámaras de seguridad que mostraban explosiones en bases militares que resultaron ser falsas. Grok no es un buen verificador, especialmente en contenidos de máxima actualidad, cuando hay poca información disponible.
Un “gran retroceso” en las políticas de verificación
Precisamente sobre el papel de las plataformas tecnológicas frente a la desinformación se ha posicionado la red de verificadores europeos. La European Fact-Checking Standards Network (EFCSN), de la cual Verificat es miembro, ha denunciado un “gran retroceso” en las políticas empresariales para hacer frente a los contenidos falsos y engañosos.
Concretamente, la EFCSN ha observado un retroceso en la financiación de los métodos de verificación, y “negligencias” documentadas en las obligaciones impuestas por la UE. Facebook, por ejemplo, abandonó el programa de verificación con fact-checkers y lo sustituyó por un sistema de notas de la comunidad, siguiendo los pasos de la red X. Un sistema que dificulta que las verificaciones lleguen rápidamente donde son necesarias, ya que requiere un consenso entre usuarios: todo el mundo puede dar su opinión.
Tras la difusión de numerosos vídeos elaborados por IA, la red X ha anunciado que suspenderá los pagos a los usuarios que compartan vídeos sintéticos sin avisar que lo son. Desde la reforma de las insignias azules, los usuarios verificados pueden cobrar dinero de la plataforma en función de las visitas. Ahora, los que desinformen con IA dejarán de hacerlo durante 90 días, según ha anunciado Nikita Bier, jefe de producto de la empresa de Elon Musk.
Verificar la IA, cada vez más difícil (pero no imposible)
Las mejoras tecnológicas han favorecido que imágenes falsificadas con inteligencia artificial puedan pasar como ciertas con más facilidad. Cada vez cometen menos errores obvios que permitan descartar una imagen a primera vista: ya no son comunes las manos con siete dedos, o las extremidades dobladas de manera antinatural.
Aun así, todavía cometen errores. Sabemos que las imágenes que simulan el bombardeo del aeropuerto de Dubái son falsas porque justo antes de la explosión, un pasajero atraviesa mágicamente una barrera separadora, aunque hay que fijarse bien para darse cuenta. De manera más sutil, en el fondo de una oficina militar bombardeada se ve un mapa del Golfo Pérsico geográficamente incorrecto, y una pantalla que queda difuminada sin ningún motivo.
Verificat funciona como una entidad de verificación de datos catalana sin fines de lucro. Su actividad consiste en examinar las intervenciones políticas y el material compartido en plataformas digitales, promoviendo también la enseñanza para un análisis reflexivo de la información. Se encuentra vinculada a la International Fact-Checking Network (IFCN) y a la European Fact-Checking Standards Network (EFCSN).