Bienestar

Pere Castellví, profesor de la Universitat Internacional de Catalunya, sobre los riesgos de confiar nuestros temores a la IA: “Solo simulan sentir, puede provocar una ilusión de comprensión que confunde”

Alerta

Los robots humanoides necesitan más tiempo para evolucionar, lo que contrasta con el empuje veloz de la IA.

Los robots humanoides necesitan más tiempo para evolucionar, lo que contrasta con el empuje veloz de la IA.

El auge de la inteligencia artificial ha cambiado la forma de ver y hacer las cosas por parte de la sociedad. Aunque muchos se aferran a la tecnología tradicional por los temores al robo de datos, falsedades y creaciones sin consentimiento, otros se han subido al barco de usar sistemas como ChatGPT, Sora o Grok, que permiten resolver dudas y generar textos o imágenes en cuestión de segundos. Sin embargo, su uso se ha extendido a un ámbito más personal, sea de compañía artificial o, incluso, de consulta médica.

“Un informe de la ONG Plan Internacional revela que una de cada cuatro jóvenes españolas entre 17 y 21 años utiliza un sistema de inteligencia artificial como confidente. Las razones son comprensibles: la IA siempre responde, no juzga y ofrece un tipo de atención que muchas personas no encuentran en su entorno inmediato”, explicaba en The Conversation Pere Castellví, profesor del Departamento de Medicina de la Universitat Internacional de Catalunya. Una tendencia peligrosa, según sus propias palabras.

Inteligencia artificial
Inteligencia artificialReve

“Lo cierto es que estos sistemas no sienten: solo simulan sentir, y esa simulación puede provocar una ilusión de comprensión que confunde. En contextos de especial vulnerabilidad como la soledad no deseada o el sufrimiento emocional, esa ilusión puede aliviar… o crear dependencia. La IA aplicada a la salud mental encierra una paradoja: cuanto más humana parece, más fácil es que olvidemos que no lo es”, contaba. En este sentido, la confusión puede degenerar en tres riesgos con los que debemos estar alerta.

“El primero de ellos es la dependencia emocional. Algunos usuarios establecen vínculos afectivos con máquinas que de ningún modo pueden corresponder. La interacción habitual con una IA puede sustituir gradualmente el contacto humano y empobrecer la capacidad de empatía y autorregulación emocional. Además, es posible desarrollar ansiedad tecnológica. Vivir bajo la influencia constante de sistemas que nos recomiendan cómo sentir o qué pensar puede generar una pérdida de autonomía y una sensación de control disminuido sobre la propia vida emocional”, detallaba.

La inteligencia artificial está redefiniendo nuestra relación con la tecnología y el conocimiento
La inteligencia artificial está redefiniendo nuestra relación con la tecnología y el conocimientoPhoto by energepic

Más dependientes, menos libres

“Finalmente, corremos el riesgo de deuda cognitiva. Al delegar el pensamiento o la introspección a la máquina, perdemos el hábito de reflexionar y elaborar nuestras emociones. Del mismo modo que el GPS debilita nuestra memoria espacial, la IA puede debilitar nuestra memoria emocional”, remataba, añadiendo también el riesgo de los sesgos algorítmicos, que acaban dando una respuesta que refuerza estereotipos. Y es que la neutralidad de la IA se puede convertir en un arma peligrosa ante un tópico tan sensible.

“La inteligencia artificial se ha convertido en un espejo emocional de nuestra sociedad. Refleja nuestras fortalezas, pero también nuestras soledades. Puede acompañarnos, pero nunca reemplazarnos. “El desafío no es hacer que las máquinas sean más humanas, sino asegurar que los humanos no perdamos nuestra humanidad al hablar con ellas”, concluía el investigador.