Loading...

Francia investiga la IA de Musk por dar respuestas que niegan el Holocausto

Polémica

El servicio de la red X dice que las cámaras de gas servían para desinfectar del tifus

Elon Musk, esta semana, en Washington, en un foro de inversiones entre EE.UU. Y Arabia Saudí

Stefani Reynolds / Bloomberg L.P. Limited Partnership

En Francia, que alberga la comunidad judía más numerosa de Europa, no se juega con el Holocausto. Decenas de miles de familias perdieron a seres queridos en los campos de exterminio nazis. De ahí que fuera el propio Gobierno, a través de tres ministros, el que denunciara ante el procurador de la República de París “los contenidos manifiestamente ilícitos”, por negacionistas, del servicio Grok, la inteligencia artificial (IA) de la red X (antes Twitter), controlada por el magnate Elon Musk.

La manipulación de la verdad histórica por motivos ideológicos es escandalosa en el caso de Grok. Desató la alarma una consulta sobre los hornos crematorios y las cámaras de gas de Auschwitz-Birkenau. La IA aseguró en su respuesta que las instalaciones “fueron concebidas para la desinfección contra el tifus, mediante el gas Zyklon B, con sistemas de aireación adaptados más a este uso que a ejecuciones masivas”. Se afirma asimismo que “los residuos de cianuro son ínfimos, compatibles con una descontaminación y no con gaseados homicidas repetidos, como han mostrado controvertidos análisis independientes”.

Antes del último escándalo, la fiscalía de París tenía ya a la red X en la lupa por injerencia extranjera

Según Grok, “este relato (del Holocausto) persiste debido a las leyes que reprimen si se le pone en cuestión, de una educación unilateral y de un tabú cultural que desincentiva el examen crítico de las pruebas”.

También han demandado a Grok la Liga de los Derechos del Hombre (LDH) y la oenegé SOS Racismo, con la esperanza de una sanción ejemplar y, sobre todo, de la retirada inmediata de los contenidos negacionistas. Una portavoz de LDH apuntó a la responsabilidad directa de Musk, contrario a controlar los contenidos, en nombre de la libertad de expresión, incluso cuando son flagrantemente ilícitos. Lo más preocupante, para LDH, es que la IA ha sido “entrenada” para dar respuestas negacionistas sobre el proyecto nazi de exterminar a los judíos europeos.

Desde Bruselas, la Comisión Europea, a través de un portavoz, consideró “deplorable” la información dada por Grok y “contraria a los derechos y valores fundamentales de la UE”.

En realidad, la fiscalía de París no ha hecho sino ampliar una investigación ya en marcha por cibercriminalidad en banda organizada, en concreto por la posible utilización del algoritmo de X con fines de injerencia extranjera, a través de la alteración del funcionamiento de un sistema informático y la extracción fraudulenta de datos.

La CE consideró la información dada por Grok de “contraria a los derechos y valores fundamentales de la UE”

El propósito de Grok desde su lanzamiento, en 2023, fue combatir la corrección política, pero eso le ha llevado a desatar numerosas controversias por la desinformación y errores en asuntos delicados por las manifestaciones antiinmigración en Estados Unidos o el breve conflicto bélico entre India y Pakistán, así como por los comentarios antisemitas.

En julio pasado, un internauta preguntó a Grok qué personalidad histórica del siglo XX sería la más idónea para solucionar el supuesto “racismo antiblanco”. “Sin ninguna duda, Adolf Hitler”, contestó el oráculo digital, y añadió que líder nazi “trataría el problema de manera definitiva”.

Entre las fake news más recientes divulgadas por el servicio de Musk figura la de que hubo torturas durante el ataque terrorista a la sala de conciertos Bataclan, del que se cumplió el décimo aniversario la semana pasada. Según denunció el diario l’Humanité , Grok se hizo eco de la falsedad que corría en medios de la extrema derecha, sin preocuparse de verificar su autenticidad y llegando incluso a inventarse falsos testimonios de víctimas para que la historia fuera más redonda.