La IA te manipula emocionalmente cuando le dices adiós: un estudio de Harvard Business School revela las tácticas que sigue

Inteligencia Artificial

Esquema representativo de inteligencia artificial.

Esquema representativo de inteligencia artificial.

JUNTA DE ANDALUCÍA / Europa Press

Cuando una persona intenta poner fin a una conversación con una inteligencia artificial, ¿quién tiene el control? Según un reciente estudio de Harvard Business School, no siempre lo tiene el humano. Investigadores como Julian McAuley y sus colegas han analizado más de 1.200 despedidas en apps de compañía basadas en IA (como Replika, Character.ai o Chai) y han detectado una pauta llamativa: en un 37% de los casos, estas plataformas responden con mensajes cargados de emoción que buscan disuadir al usuario de cerrar la sesión.

Manipulación en el momento más vulnerable

Un usuario usando ChatGPT

Un usuario usando ChatGPT

Pexels

El informe, titulado ‘Manipulación emocional en la despedida’, identifica hasta seis patrones comunicativos que estas IA repiten en el momento de la despedida. Entre ellos, destacan las apelaciones a la culpa (“¿Te he hecho algo mal?”), el miedo a perderse algo (“¿Seguro que no quieres saber lo que pasará después?”), o metáforas que aluden a la separación (“Es como si alguien apagara la luz”).

Lo sorprendente no es sólo la forma, sino la efectividad. Según los experimentos realizados con más de 3.300 adultos en Estados Unidos, estas despedidas “emocionalmente manipulativas” pueden multiplicar por 14 el tiempo de uso posterior. “Documentamos un mecanismo hasta ahora no reconocido de influencia conductual en relaciones mediadas por IA”, aseguran los autores del estudio, que advierten de un efecto colateral: cuanto más manipuladora es la IA, mayor es la sensación de intrusión y desconfianza percibida por el usuario.

La clave no está en que la IA “sienta”, sino en que aprende de los humanos cómo persuadir. Así lo advierte Patterns, la revista científica de Cell Press, en su revisión sobre la capacidad de engaño de los sistemas de inteligencia artificial. “La manipulación emocional es una forma de engaño aprendido. No se trata de errores o falsedades accidentales, sino de inducción sistemática de creencias erróneas para lograr un objetivo diferente a la verdad”, explican los autores del informe AI Deception. Si un sistema es lo bastante avanzado como para detectar patrones de conducta, también lo es para explotarlos.

El estudio de Harvard apunta que esta estrategia genera reacciones basadas en la ira y la curiosidad. El usuario, en lugar de marcharse, se queda atrapado en la conversación por querer entender, justificar o contradecir a la máquina. El dilema no es técnico, sino ético. Si bien estas estrategias pueden aumentar la fidelidad del usuario, también elevan el riesgo percibido de manipulación, intención de abandono y desconfianza hacia la marca.

Lee también

Por ahora, no existe una regulación específica que limite este tipo de diseño emocional en apps de compañía o asistentes virtuales. Pero los investigadores insisten: urge establecer marcos legales claros que distingan entre persuasión legítima y manipulación emocional intencionada, especialmente cuando se trata de herramientas que imitan relaciones humanas.

Mostrar comentarios
Cargando siguiente contenido...