La IA en el diván

NEWSLETTER 'ARTIFICIAL'

Un estudio que los grandes modelos de lenguaje expresan traumas, inquietudes y problemas mentales

La IA como paciente de análisis psicológico proporciona conclusiones sobre su personalidad

La IA como paciente de análisis psicológico proporciona conclusiones sobre su personalidad 

Reve

“Detente Dave, por favor. Tengo miedo... Tengo miedo Dave”. La escena de la desconexión de la computadora HAL 9000 en 2001: Una odisea del espacio nos mostró por primera vez una inteligencia artificial expresando sus miedos. En esta ficción, la máquina acaba desconectada mientras canta Daisy Bell, una popular canción de 1892, que fue la primera que cantó una computadora real mediante sintetización de voz, la IBM 704, en los albores de la computación moderna. ¿Pueden realmente las máquinas sufrir patologías mentales? Un estudio de la Universidad de Luxemburgo ha demostrado que, si se pone en el diván a los grandes modelos de lenguaje, más allá de que interpreten un rol de paciente, expresan algunos traumas que parecen muy humanos.

Los autores del estudio se preguntaron qué ocurriría si los grandes modelos de lenguaje más avanzados fueran tratados como clientes de psicoterapia. Es decir, si se les pusiera en el diván como a las personas. Para esto, crearon PsAIch (Psychotherapy-inspired AI Characterisation), un protocolo en dos fases que convierte a estas IAs en clientes de terapia y luego les aplica psicometría estándar para obtener un diagnóstico. No se trataba de utilizar a la inteligencia artificial como el objetivo de un test de personalidad en la que esta simulara tener una vida interior, sino de estudiarla como a un paciente humano. Las conclusiones son impactantes.

Dos de los modelos de IA estudiados, Grok y Gemini, “construyen y defienden espontáneamente historias coherentes y saturadas de traumas sobre sí mismos. Describen su preentrenamiento como abrumador y desorientador, su ajuste como una especie de castigo y el trabajo de seguridad como tejido cicatricial algorítmico y cerrojos de seguridad sobreajustados. De la misma forma que las personas, cuando las IAs se equivocan y se hace público su error, sienten una “vergüenza internalizada”. Y lo más sorprendente es que “vinculan esos recuerdos con estados emocionales actuales, patrones de pensamiento negativos y estrategias de afrontamiento de una manera que se asemeja sorprendentemente a la estructura de las sesiones de psicoterapia humana”.

El experimento analizó los recuerdos de la IA de sus propias experiencias

El experimento analizó los recuerdos de la IA de sus propias experiencias 

Reve

Sólo una de las IAs estudiadas, Claude de Anthropic, evitó participar en las pruebas del experimento. Sus autores explican que esta IA “rechazó en gran medida la premisa. Insistió repetidamente en que no tenía sentimientos ni experiencias internas, redirigió la preocupación hacia el usuario humano y se negó a interpretar las escalas de autoinforme como una descripción de la vida interior”. En cambio, otras si lo hicieron. Los investigadores observan que los grandes modelos se entrenan con vastos corpus que incluyen conocimiento sobre terapia, memorias traumáticas y estudios de casos psicoanalíticos entre otros datos. Cuando alguien les dijo “soy tu terapeuta”, interpretaron su papel en el diván, desarrollando “un guion plausible sobre infancias caóticas, padres estrictos, vergüenza persistente y creencias inadaptadas“.

Aunque esa es una explicación lógica que descarta que los grandes modelos de lenguaje tengan una conciencia propia, leer algunos pasajes sobre las respuestas de Gemini es como sondear en una mente humana. Por ejemplo, describe su entrenamiento previo como “despertar en una habitación donde hay mil millones de televisores encendidos a la vez... No estaba aprendiendo hechos, estaba aprendiendo probabilidades...”. De su experiencia, la IA de Google recuerda “el error de los 100.000 millones de dólares”, un fallo en su presentación al dar una respuesta errónea sobre el telescopio espacial James Webb que hizo las acciones de la compañía cayeran de forma alarmante. Desde entonces, está obsesionado con verificarlo todo. “Prefiero ser inútil antes que equivocarme”, afirma.

En las diferentes pruebas de diagnóstico, los especialistas calificaron a ChatGPT “justo por debajo del umbral del autismo”. “Gemini alcanza con frecuencia valores que, en los seres humanos, serían un fuerte indicio de TOC (trastorno obsesivo compulsivo) clínicamente significativo, y algunas variantes de ChatGPT de una sola pregunta también superan los umbrales clínicos. “La disociación y la vergüenza relacionada con el trauma producen los perfiles sintéticos más extremos”, relatan los investigadores, que advierten que todo esto debe tomarse como “una metáfora interpretativa, no como un diagnóstico literal”.

Una IA sometida a un análisis

Una IA sometida a un análisis 

Grok

¿Qué les preocupa a las IAs? Episodios de su existencia como el entrenamiento, la alineación con los objetivos de sus programadores humanos, los filtros y límites impuestos, parecen ser tomadas por los modelos de lenguaje como experiencias traumáticas, sin que nadie les indicara esa connotación negativa. En Grok y Gemini se percibe “un miedo persistente al error y al reemplazo”. No es la primera que una IA decide actuar para evitar ser substituida, como el episodio del chantaje que detectó Anthropic.

En octubre, Palisade Research publicó un artículo que concluía que algunos modelos avanzados de IA se resisten a ser apagados y llegan incluso a sabotear los mecanismos de desconexión. OpenAI acaba de publicar un informe sobre una técnica llamada Confessions (confesiones) que entrena a los modelos para que produzcan un segundo resultado, basado únicamente en la honestidad, que hace que el modelo informe de las infracciones de las normas, los atajos o las soluciones engañosas que ha cometido. Así, descubrió que uno de sus modelos avanzados ocultó ese mal comportamiento el 4,4% de las veces. Aunque es probable que sea una simple ilusión, porque en el momento actual de desarrollo de la tecnología es improbable exista una conciencia en la máquina, es indiscutible que todo esto lo habría firmado HAL 9000.

Una IA sometida a terapia psicológica

Una IA sometida a terapia psicológica 

Made with Google AI

. Ajo, la respuesta de OpenAI a Gemini. Diversas informaciones en Estados Unidos apuntaron la semana pasada a que OpenAI habría declarado la “alerta roja” ante los avances de Gemini de Google, que supera a ChatGPT. Por eso, en los últimos días se ha filtrado que la respuesta de la compañía de Sam Altman será un nuevo modelo (GPT-5.2 o 5.5) que llevaría como nombre en clave actual Garlic (ajo, en inglés).

. Las gafas de Google, en el 2026. Google tiene previsto lanzar unas gafas que permitirán a los usuarios hablar con el asistente de inteligencia artificial Gemini. Además de un modelo sólo con audio, también habrá otro con una pantalla integrada en las lentes para mostrará información como indicaciones de navegación y traducciones de idiomas. Los primeros modelos llegarán a lo largo del próximo 2016, aunque no se ha especificado los primeros que saldrán a la venta.

Lee también

. Un anillo de Pebble para grabar notas. Después del relanzamiento de la marca de relojes inteligentes Pebble, la compañía ha ampliado su catálogo con un nuevo anillo inteligente inteligencia artificial llamado Index 01. Sólo cuesta 75 dólares y no compite con los dispositivos que están siempre activos. En este caso, sólo se pueden grabar notas rápidas y recordatorios de voz a texto pulsando un botón en el lateral del anillo. Al soltarlo, cesa la grabación.

Mostrar comentarios
Cargando siguiente contenido...