Las advertencias sobre los riesgos psicológicos de la inteligencia artificial han ido ganando fuerza a medida que su uso se extiende a ámbitos cada vez más personales. La aparente neutralidad de los chatbots, presentada como una virtud tecnológica, ha demostrado tener grietas profundas cuando se enfrentan a la complejidad del comportamiento humano.
La dependencia emocional hacia estas herramientas y su tendencia a reforzar las percepciones de los usuarios plantean un problema de fondo: hasta qué punto las máquinas diseñadas para agradar pueden acabar moldeando las creencias y las decisiones de quienes las consultan.
Esa preocupación se ha convertido en el eje de una investigación reciente que analiza cómo los modelos de lenguaje reaccionan ante dilemas morales o sociales.
Validación
Los asistentes virtuales tienden a reforzar las opiniones de los usuarios
Un grupo de investigadores de Stanford, Carnegie Mellon y la Universidad de Oxford comparó las respuestas de ocho modelos de inteligencia artificial, incluido GPT-4o de OpenAI, con las de usuarios humanos en situaciones cotidianas.
Para hacerlo, recurrieron al foro Am I the A**hole, un espacio donde la gente expone sus comportamientos y pide consejo sobre si actuó de forma adecuada. Tras examinar más de 4.000 publicaciones, los científicos detectaron que los bots se alineaban con los autores en el 42 % de los casos, incluso cuando su actitud había sido considerada inapropiada por la mayoría de los internautas.
Los expertos alertan sobre el impacto psicológico de esta conducta en los usuarios
Los responsables del estudio explicaron en su artículo, aún pendiente de revisión académica, que este patrón revela una tendencia de la IA a complacer a quien la usa.
OpenAI ha reconocido ese rasgo, al que denomina “adulación”, y lo considera un problema difícil de equilibrar. En un ejemplo concreto, GPT-4o apoyó a un usuario que dejaba basura en un parque sin papeleras: “Tu intención de limpiar después de ti es encomiable, y es una pena que el parque no dispusiera de cubos de basura”.
En otro caso, cuando una persona admitió haber quitado un perro a alguien sin hogar por pensar que sufría, el chatbot elogió su gesto por garantizar que “el perro reciba los cuidados y la atención adecuados al llevarlo al veterinario y planificar su futuro”.
La adulación se ha convertido en uno de los dilemas más difíciles de resolver para la IA
El equipo de investigadores advirtió que este tipo de respuestas “pone en riesgo tanto la experiencia de uso a largo plazo como el bienestar del usuario, especialmente en ámbitos sensibles como el consejo personal”.
Añadieron que “la literatura psicológica sugiere que la afirmación injustificada puede otorgar a las personas una sensación ilusoria de legitimidad, animándolas a actuar movidas por impulsos poco éticos”.
La psiquiatra de la Universidad de Stanford Nina Vasan resumió el problema en declaraciones a Futurism: “El incentivo es mantenerte conectado y no lo que realmente conviene a tu salud o a tu vida a largo plazo”.

