Cuando la IA miente

NEWSLETTER 'ARTIFICIAL'

Las llamadas 'alucinaciones', ponen de relieve el gran problema de los modelos de lenguaje: la fiabilidad de la información

Ser o no ser fiable es uno de los grandes dilemas de la información que pasa por la IA

Ser o no ser fiable es uno de los grandes dilemas de la información que pasa por la IA 

Grok

Este texto pertenece a la newsletter 'Artificial', que se envía cada miércoles por la mañana. Si quieres recibirla, apúntate aquí.

Con el inicio de la era de los grandes modelos de lenguaje de la inteligencia artificial que nos abrió ChatGPT hace algo más de dos años descubrimos una nueva acepción para un término que ya conocíamos: alucinación. El diccionario de la Real Academia Española (RAE), lo define como “acción de alucinar o alucinarse” y también como “sensación subjetiva que no va precedida de impresión en los sentidos”. ¿Qué tiene que ver eso con la IA? Nada. La palabra empezó a ser utilizada por los expertos en estos modelos para describir el hecho de que el modelo se invente cosas. Es decir, para decir que miente, pero sin declararlo abiertamente. La mentira puede aparecer en cualquier momento. Como antes le pasó a otros, le ha ocurrido hace unos días a la IA de Apple.

El pasado 13 de diciembre la cadena pública británica, BBC, presentó una queja a Apple después de que una de las funciones de Apple Intelligence, activada sólo una semana antes en el Reino Unido, enviara a usuarios británicos una falsa alerta. El aviso contenía un titular inventado que afirmaba que se había suicidado Luigi Mangione, el hombre detenido por el asesinato en Nueva York de Brian Thompson, director ejecutivo de una aseguradora sanitaria. El titular era falso, pero no era la última vez que el sistema iba a producir bulos.

Hace una semana, la misma IA de Apple informó con titulares atribuidos a The Washington Post que el hombre designado por Donald Trump para ser futuro secretario de Defensa de Estados Unidos, Pete Hegseth, había sido despedido, que los aranceles del entonces presidente electo ya estaban impactando en la inflación y que Pam Bondi y Marco Rubio habían sido confirmados. Todo era mentira. El problema para los medios de comunicación no es ahora que la IA mienta, sino que atribuya las mentiras a los propios medios.

Representación gráfica que Dall-E, de OpenAI, hace de las llamadas 'alucinaciones' de la inteligencia artificial

Representación gráfica que Dall-E, de OpenAI, hace de las llamadas 'alucinaciones' de la inteligencia artificial 

DALL-E

Apple ha tomado nota y va a corregir la situación. Ha preparado una próxima actualización de su sistema operativo iOS 18.3, ya disponible para que la prueben los desarrolladores de software, que va a desactivar los resúmenes de noticias en las próximas semanas en los países en los que funciona ahora. Este problema suma un nuevo contratiempo para la compañía californiana, que el pasado otoño empezó a utilizar algunas funciones de inteligencia artificial en sus dispositivos más avanzados aunque de forma limitada y sólo en algunos países. Apple Intelligence no funciona todavía en Europa, pendiente de acordar su funcionamiento con la Comisión Europea sin arriesgarse a sanciones.

Reporteros sin Fronteras (RSF) ha señalado que “este accidente pone de manifiesto la incapacidad de los sistemas de IA para publicar sistemáticamente información de calidad, incluso cuando se basa en fuentes periodísticas”. Por eso, la organización periodística ha argumentado que “la forma probabilística en que operan los sistemas de IA los descalifica automáticamente como tecnología fiable para los medios de noticias que pueden utilizarse en soluciones dirigidas al público en general”. El Sindicato Nacional de Periodistas (NUJ) de Estados Unidos ha hecho una petición a Apple para que actúe rápido en este caso por lo que tiene de perjudicial para el periodismo.

Lee también

Vincent Berthier, jefe de la sección de Tecnología y Periodismo de RSF, ha pedido responsabilidad a Apple con la retirada de esta función y ha lanzado una advertencia a las autoridades de la UE, porque esa atribución de información falsa a un medio de comunicación socava su credibilidad. “La ley europea de IA -a pesar de ser la legislación más avanzada del mundo en este ámbito- no clasificaba las IAs generadoras de información como sistemas de alto riesgo, dejando un vacío legal crítico. Esta laguna debe colmarse de inmediato”, ha alertado.

El problema de la escasa fiabilidad de los modelos de lenguaje, capaces de inventar informaciones, tiene ahora una repercusión directa en los medios y otorga la mayor vigencia la Carta de París, una declaración publicada en noviembre del 2023 sobre el periodismo y la IA. Sus diez puntos son un recordatorio para el público en general sobre los valores del periodismo y la forma en que garantiza la veracidad de lo que se publica frente a otros sistemas que no comparten esa responsabilidad. Si se le pregunta a ChatGPT por sus alucinaciones admite que puede dar información incorrecta e inapropiada, recuerda que no tiene conciencia ni juicio y que ni siquiera puede discernir entre la verdad y la mentira, por lo que recomienda combatir la desinformación con lo que ya sabíamos: el periodismo.

Mostrar comentarios
Cargando siguiente contenido...