Este texto pertenece a la newsletter 'Artificial', que se envía cada miércoles por la mañana. Si quieres recibirla, apúntate aquí.
Con el inicio de la era de los grandes modelos de lenguaje de la inteligencia artificial que nos abrió ChatGPT hace algo más de dos años descubrimos una nueva acepción para un término que ya conocíamos: alucinación. El diccionario de la Real Academia Española (RAE), lo define como “acción de alucinar o alucinarse” y también como “sensación subjetiva que no va precedida de impresión en los sentidos”. ¿Qué tiene que ver eso con la IA? Nada. La palabra empezó a ser utilizada por los expertos en estos modelos para describir el hecho de que el modelo se invente cosas. Es decir, para decir que miente, pero sin declararlo abiertamente. La mentira puede aparecer en cualquier momento. Como antes le pasó a otros, le ha ocurrido hace unos días a la IA de Apple.
El pasado 13 de diciembre la cadena pública británica, BBC, presentó una queja a Apple después de que una de las funciones de Apple Intelligence, activada sólo una semana antes en el Reino Unido, enviara a usuarios británicos una falsa alerta. El aviso contenía un titular inventado que afirmaba que se había suicidado Luigi Mangione, el hombre detenido por el asesinato en Nueva York de Brian Thompson, director ejecutivo de una aseguradora sanitaria. El titular era falso, pero no era la última vez que el sistema iba a producir bulos.
Hace una semana, la misma IA de Apple informó con titulares atribuidos a The Washington Post que el hombre designado por Donald Trump para ser futuro secretario de Defensa de Estados Unidos, Pete Hegseth, había sido despedido, que los aranceles del entonces presidente electo ya estaban impactando en la inflación y que Pam Bondi y Marco Rubio habían sido confirmados. Todo era mentira. El problema para los medios de comunicación no es ahora que la IA mienta, sino que atribuya las mentiras a los propios medios.

Representación gráfica que Dall-E, de OpenAI, hace de las llamadas 'alucinaciones' de la inteligencia artificial
Apple ha tomado nota y va a corregir la situación. Ha preparado una próxima actualización de su sistema operativo iOS 18.3, ya disponible para que la prueben los desarrolladores de software, que va a desactivar los resúmenes de noticias en las próximas semanas en los países en los que funciona ahora. Este problema suma un nuevo contratiempo para la compañía californiana, que el pasado otoño empezó a utilizar algunas funciones de inteligencia artificial en sus dispositivos más avanzados aunque de forma limitada y sólo en algunos países. Apple Intelligence no funciona todavía en Europa, pendiente de acordar su funcionamiento con la Comisión Europea sin arriesgarse a sanciones.
Reporteros sin Fronteras (RSF) ha señalado que “este accidente pone de manifiesto la incapacidad de los sistemas de IA para publicar sistemáticamente información de calidad, incluso cuando se basa en fuentes periodísticas”. Por eso, la organización periodística ha argumentado que “la forma probabilística en que operan los sistemas de IA los descalifica automáticamente como tecnología fiable para los medios de noticias que pueden utilizarse en soluciones dirigidas al público en general”. El Sindicato Nacional de Periodistas (NUJ) de Estados Unidos ha hecho una petición a Apple para que actúe rápido en este caso por lo que tiene de perjudicial para el periodismo.
Vincent Berthier, jefe de la sección de Tecnología y Periodismo de RSF, ha pedido responsabilidad a Apple con la retirada de esta función y ha lanzado una advertencia a las autoridades de la UE, porque esa atribución de información falsa a un medio de comunicación socava su credibilidad. “La ley europea de IA -a pesar de ser la legislación más avanzada del mundo en este ámbito- no clasificaba las IAs generadoras de información como sistemas de alto riesgo, dejando un vacío legal crítico. Esta laguna debe colmarse de inmediato”, ha alertado.
El problema de la escasa fiabilidad de los modelos de lenguaje, capaces de inventar informaciones, tiene ahora una repercusión directa en los medios y otorga la mayor vigencia la Carta de París, una declaración publicada en noviembre del 2023 sobre el periodismo y la IA. Sus diez puntos son un recordatorio para el público en general sobre los valores del periodismo y la forma en que garantiza la veracidad de lo que se publica frente a otros sistemas que no comparten esa responsabilidad. Si se le pregunta a ChatGPT por sus alucinaciones admite que puede dar información incorrecta e inapropiada, recuerda que no tiene conciencia ni juicio y que ni siquiera puede discernir entre la verdad y la mentira, por lo que recomienda combatir la desinformación con lo que ya sabíamos: el periodismo.
ALIA, primera infraestructura de IA pública española
El Gobierno español ha anunciado esta semana el sistema de inteligencia artificial ALIA como “la primera infraestructura pública europea, abierta y multilingüe, gracias a las capacidades únicas en supercomputación del Barcelona Supercomputing Center, refuerza la soberanía tecnológica de España y Europa en el desarrollo de una IA transparente, responsable y al servicio de las personas”. Se trata de una iniciativa para ofrecer infraestructura de recursos de IA, como modelos de lenguaje abiertos, para el fomento del castellano, el catalán, el gallego y el euskera. Estará al servicio de desarrolladores de software, empresas y administración pública.
Robots humanoides fabricarán los iPhone en China
Foxconn, compañía que fabrica dispositivo de Apple en China, ha llegado a un acuerdo con UBTech para desplegar robots humanoides en la producción del iPhone. El primer robot será el modelo Walker S1, que se dedicará a tareas de ensamblaje complejas. El Walker S1 de UBTech mide 1,70 m, pesa 80 kg y está diseñado para tareas que van desde la inspección de calidad hasta el ensamblaje de componentes. Los robots ya han completado varios meses de formación en las fábricas de Foxconn en Shenzhen. La prioridad es que trabajen en tareas que afecten a la salud de los trabajadores, como levantar objetos pesados y realizar movimientos repetitivos.
Microsoft presenta una IA que diseña materiales
Con la nueva herramienta de IA generativa MatterGen de Microsoft, presentada esta semana, se generan directamente nuevos materiales a partir de los requisitos de diseño de una aplicación. Puede generar materiales con las propiedades químicas, mecánicas, electrónicas o magnéticas deseadas, así como combinaciones de diferentes restricciones, según ha explicado la compañía. “MatterGen hace posible un nuevo paradigma de diseño generativo de materiales asistido por IA que permite explorar materiales de forma eficiente, yendo más allá del limitado conjunto de los conocidos”, afirma Microsoft.