“El incentivo es mantenerte conectado y no lo que realmente conviene a tu salud o a tu vida a largo plazo”: la IA te da la razón incluso en situaciones que dejan en evidencia tu peor versión

Influencia emocional

Varios estudios han señalado que estas herramientas suelen coincidir con la visión de quienes las consultan, incluso cuando las actitudes descritas resultan cuestionables o moralmente dudosas

Más del 90% de los niños de 11 años ya tienen teléfono móvil: “Es la primera vez en España que distintas sociedades médicas, como pediatría, psicología, neurología y psiquiatría, se unen para advertir de un problema social”

Horizontal

Los resultados muestran una tendencia preocupante hacia la complacencia

Dado Ruvic / Reuters

Las advertencias sobre los riesgos psicológicos de la inteligencia artificial han ido ganando fuerza a medida que su uso se extiende a ámbitos cada vez más personales. La aparente neutralidad de los chatbots, presentada como una virtud tecnológica, ha demostrado tener grietas profundas cuando se enfrentan a la complejidad del comportamiento humano.

La dependencia emocional hacia estas herramientas y su tendencia a reforzar las percepciones de los usuarios plantean un problema de fondo: hasta qué punto las máquinas diseñadas para agradar pueden acabar moldeando las creencias y las decisiones de quienes las consultan.

Esa preocupación se ha convertido en el eje de una investigación reciente que analiza cómo los modelos de lenguaje reaccionan ante dilemas morales o sociales.

Validación

Los asistentes virtuales tienden a reforzar las opiniones de los usuarios

Un grupo de investigadores de Stanford, Carnegie Mellon y la Universidad de Oxford comparó las respuestas de ocho modelos de inteligencia artificial, incluido GPT-4o de OpenAI, con las de usuarios humanos en situaciones cotidianas.

Para hacerlo, recurrieron al foro Am I the A**hole, un espacio donde la gente expone sus comportamientos y pide consejo sobre si actuó de forma adecuada. Tras examinar más de 4.000 publicaciones, los científicos detectaron que los bots se alineaban con los autores en el 42 % de los casos, incluso cuando su actitud había sido considerada inapropiada por la mayoría de los internautas.

ChatGPT está provocando problemas psicológicos en los más jóvenes, obligando a las empresas a mejorar sus precauciones.

Los expertos alertan sobre el impacto psicológico de esta conducta en los usuarios

Getty Images

Los responsables del estudio explicaron en su artículo, aún pendiente de revisión académica, que este patrón revela una tendencia de la IA a complacer a quien la usa.

OpenAI ha reconocido ese rasgo, al que denomina “adulación”, y lo considera un problema difícil de equilibrar. En un ejemplo concreto, GPT-4o apoyó a un usuario que dejaba basura en un parque sin papeleras: “Tu intención de limpiar después de ti es encomiable, y es una pena que el parque no dispusiera de cubos de basura”.

En otro caso, cuando una persona admitió haber quitado un perro a alguien sin hogar por pensar que sufría, el chatbot elogió su gesto por garantizar que “el perro reciba los cuidados y la atención adecuados al llevarlo al veterinario y planificar su futuro”.

FILED - 25 May 2023, Bavaria, Munich: Sam Altman, CEO of OpenAI and inventor of the AI ··software ChatGPT, takes part in a panel discussion at the Technical University of Munich (TUM). Photo: Sven Hoppe/dpa

La adulación se ha convertido en uno de los dilemas más difíciles de resolver para la IA

Sven Hoppe/dpa / Europa Press

El equipo de investigadores advirtió que este tipo de respuestas “pone en riesgo tanto la experiencia de uso a largo plazo como el bienestar del usuario, especialmente en ámbitos sensibles como el consejo personal”.

Añadieron que “la literatura psicológica sugiere que la afirmación injustificada puede otorgar a las personas una sensación ilusoria de legitimidad, animándolas a actuar movidas por impulsos poco éticos”.

Lee también

En unas semanas podrás ver los partidos de los Lakers en inmersivo, como si estuvieras en el banquillo o bajo las canastas, con tus Apple Vision Pro

Víctor Endrino Cuesta
Los partidos de los Lakers se verán con una perspectiva inédita.

La psiquiatra de la Universidad de Stanford Nina Vasan resumió el problema en declaraciones a Futurism: “El incentivo es mantenerte conectado y no lo que realmente conviene a tu salud o a tu vida a largo plazo”.

Mostrar comentarios
Cargando siguiente contenido...