El peligroso vínculo emocional

Newsletter 'Artificial'

Las conexiones afectivas de millones de personas con los chatbots ponen a prueba su salud mental

El usuario puede tener la sensación de que el chatbot se comporta como una persona afectiva

El usuario puede tener la sensación de que el chatbot se comporta como una persona afectiva 

Reve

Agosto nos dejó un aluvión de novedades en el mundo de la IA, con el nuevo modelo estrella GPT-5 y la rebelión de los usuarios de ChatGPT que se sintieron frustrados porque era más frío, más aséptico, que su predecesor GPT-4o. Las protestas fueron solventadas por OpenAI recuperando este último como modelo alternativo que podían utilizar los usuarios que así lo desearan. Los modelos de IA son sistemas predictivos sofisticados. Pueden representar una personalidad humana determinada y jugar un papel que se le asigne. Y eso, convence a muchas personas de que hay alguien que les entiende detrás de las respuestas de la máquina. Nada más lejos de la realidad.

El director ejecutivo de OpenAI, Sam Altman, invitó a cenar a un grupo de periodistas para explicarse sobre todo lo que hicieron mal con el lanzamiento de GPT-5, pero la conversación distendida en un restaurante de la bahía de San Francisco, con sus magníficas vistas de la puesta de Sol, transitó por los muchos interrogantes que suscita todo lo relacionado con el actual momento de la inteligencia artificial. Uno de ellos fue el de las relaciones afectivas que algunos usuarios de los chatbots de IA entablan con su algoritmo.

Altman calculó que, en el caso de ChatGPT, existe un grupo de usuarios “muy inferior al 1%” que mantiene una relación poco saludable con el algoritmo. Calculemos rápido: el número de usuarios actuales de la IA de OpenAI es de 700 millones de personas. El porcentaje mencionado serían 7 millones de individuos que se relacionan con la IA. Aunque fuera sólo la mitad, seguirían existiendo 3,5 millones que se mantienen una relación con la IA propia como si estuvieran con una persona y no con un sofisticado modelo probabilístico que escoge una palabra tras otra para ofrecer una respuesta.

Algunas personas viven la relación con una IA como con un ser humano

Algunas personas viven la relación con una IA como con un ser humano 

Made with Google AI

La siguiente pregunta que suscita la respuesta de Altman es ¿cómo sabe OpenAI cuánta gente tiene una relación afectiva con su IA? La respuesta es obvia. Examinan de alguna forma los mensajes. “Hay personas que realmente sentían que tenían una relación con ChatGPT, y esas personas las conocemos y tenemos en cuenta. Y luego hay cientos de millones de personas que no tienen una relación parasocial con ChatGPT, pero que se acostumbraron mucho al hecho de que les respondiera de cierta manera, validara ciertas cosas y les apoyara de cierta manera”. Están, pues, los enamorados, que son los menos, y los empáticos, que son los más.

ChatGPT es la IA más popular, pero no la única. Y más allá de los bots más populares, como Gemini, Perplexity, Claude o Llama, hay modelos mucho más pequeños que corren en aplicaciones de móvil en los que no se oculta el nexo afectivo. Altman explicó a los periodistas que “algunas empresas se lanzan a fabricar robots sexuales de anime japonés porque creen que han identificado algo que funciona”. No desaprovechó el directivo la oportunidad de lanzar una puya a Elon Musk. La IA de la red social X, Grok, tiene entre los avatares de su posible personalidad a la carta el de una chica de anime.

“No nos verás hacer eso -aseguró Altman-. Seguiremos trabajando duro para crear una aplicación útil e intentaremos que los usuarios la utilicen como quieran, pero sin que las personas con estados mentales realmente frágiles sean explotadas accidentalmente”. La doctrina en Estados Unidos es dejar que las empresas –mercado lo llaman– se autorregulen. Ahora mismo llega a 700 millones de personas cada semana, pero pronto alcanzará los 1.000 millones. “Ahora mismo somos la quinta página web más grande del mundo. Creo que vamos camino de convertirnos en la tercera”, remató Altman.

En la película 'Her,' una IA llamada Samantha se convierte en el amor de un ser humano

En la película 'Her,' una IA llamada Samantha se convierte en el amor de un ser humano 

Courtesy of Warner Bros.

Muchos de esos usuarios de la IA de OpenAI son europeos. Pero las decisiones se toman siempre al otro lado del Atlántico. Poco importa que Europa se haya dotado de una legislación para prevenir riesgos. En un ejemplo más extremo que la relación con ChatGPT, unos 30 millones de personas utilizan Replika, una plataforma que ofrece amigos virtuales de IA a la carta, ya sea para charlar, como asesor personal o como amante. El año pasado, la compañía decidió eliminar el intercambio de mensajes eróticos entre sus bots de IA y sus suscriptores. Varios usuarios alegaron que el apagón sexual les había provocado crisis de salud mental.

La Ley de IA de la UE se va aplicando según un calendario gradual y, desde febrero, pone bajo su lupa regulatoria a aquellas que, entre otras cosas, supongan riesgos como “el empleo de técnicas subliminales para manipular las decisiones de las personas”, aunque sólo si causan un “daño significativo” a los usuarios. ¿Entrarían bajo esa categoría aquellas Ias llamadas IAs de compañía que juegan artificialmente el papel de amigas o amantes? Nadie parece tenerlo muy claro, pero mientras, millones de usuarios siguen relacionándose con chatbots cuyas respuestas, en contados casos, pueden tener consecuencias fatales. Si sumamos esto a la perfección de la IA generativa en imágenes y vídeo, tenemos un cóctel perfecto para que la realidad se difumine frente a la pantalla para millones de personas.

Lee también

· La IA al rescate contra la gripe. Investigadores del MIT han creado VaxSeer, una inteligencia artificial que predice con meses de antelación qué cepas de gripe serán las predominantes e identifica las vacunas que mejor protegerán contra ellas. El sistema ha sido entrenado con décadas de secuencias virales y datos de laboratorio. En pruebas con temporadas de gripe pasadas, VaxSeer superó las elecciones de vacunas de la OMS en 15 de 20 ocasiones respecto a dos tipos principales de gripe y detectó también una fórmula de vacuna ideal para la gripe del 2016 que las autoridades sanitarias no eligieron hasta el año siguiente.

· Google desafía a Photoshop. Google ha lanzado Gemini Flash 2.5 Image, conocido como nano-banana en fase de pruebas para expertos, un modelo de IA capaz de editar imágenes en varios pasos que mantienen la apariencia de los personajes. El modelo es muy rápido y trabaja sólo con instrucciones escritas. Aunque la IA generativa no está capacitada todavía para reemplazar al software tradicional, el modelo de Google prueba que sí puede amenazarlo en breve.

· El superequipo IA de Meta se rompe. El equipo de grandes talentos de IA que Mark Zuckerberg ha estado formando a partir de enormes ofertas a los ingenieros de varias compañías de la competencia está en crisis casi antes de comenzar. El departamento de Meta Superintelligence Labs ha sufrido varias bajas prematuras y, al menos dos ingenieros, han vuelto a OpenAI después de comprobar las condiciones de trabajo, en las que se cuestionan la calidad de los datos de Scale AI, compañía adquirida por Meta.

Mostrar comentarios
Cargando siguiente contenido...