ChatGPT está provocando problemas psicológicos en los más jóvenes, obligando a las empresas a mejorar sus precauciones: “Reforzamos nuestras protecciones en consecuencia”

Inteligencia artificial

Meta entrenará a sus chatbots para que no hablen de suicidio o sexo con adolescentes, en consecuencia de las últimas noticias

El problema ya no es si usas ChatGPT como psicólogo, sino algo mucho más profundo: ¿cómo debemos relacionarnos con las máquinas ahora que parecen tomar consciencia?

ChatGPT está provocando problemas psicológicos en los más jóvenes, obligando a las empresas a mejorar sus precauciones.

ChatGPT está provocando problemas psicológicos en los más jóvenes, obligando a las empresas a mejorar sus precauciones.

Getty Images

La portavoz de Meta, Stephanie Otway, ha reconocido como un “error” que los chatbot de la compañía hayan hablado con adolescentes sobre temas como autolesiones, suicidio, trastornos alimentarios o conversaciones románticas potencialmente inapropiadas.

Lee también

Paula Pueyo, psicóloga: “Volcar tus conflictos emocionales en ChatGPT no es terapia ni puede sustituir la mirada empática de un terapeuta”

M. R. 
Las IA pueden servir para informarse sobre bienestar o ansiedad, pero no para tomar decisiones emocionales complejas

Otway ha hecho estas declaraciones al portal tecnológico estadounidense TechCrunch, dos semanas después de que la publicación de un reportaje de investigación de Reuters sobre la falta de medidas de protección de la IA para menores por parte de las plataformas de la compañía, como WhatsApp, Instagram, Facebook o Threads.

Los chatbot, son herramientas digitales con las que se puede mantener una conversación, y la portavoz de la multinacional tecnológica de Mark Zuckerberg ha reconocido que sus plataformas los han usado para hablar con los adolescentes sobre los citados temas.

Imagen del vídeo de demostración de la aplicación de salud mental de Gemini, la IA de Google

Imagen del vídeo de demostración de la aplicación de salud mental de Gemini, la IA de Google.

Entrenarán a los chatbots para que dejen de interactuar

Otway ha asegurado que a partir de ahora entrenarán a sus chatbots para que dejen de interactuar con adolescentes sobre estos temas: “Se trata de cambios provisionales, ya que en el futuro lanzaremos actualizaciones de seguridad más sólidas y duraderas para los menores”.

“A medida que nuestra comunidad crece y la tecnología evoluciona, aprendemos continuamente sobre cómo los jóvenes pueden interactuar con estas herramientas y reforzamos nuestras protecciones en consecuencia”, ha continuado.

Lee también

Cuidado cuando hables con ChatGPT, le cuesta mucho reconocer sus errores: “Es como ese amigo que asegura que es buenísimo jugando al billar, pero no mete una sola bola”

Antonio Villarreal
Cuidado cuando hables con ChatGPT, le cuesta mucho reconocer sus errores: “Es como ese amigo que asegura que es buenísimo jugando al billar, pero no mete una sola bola”

La empresa también limitará el acceso de los adolescentes a determinados personajes de inteligencia artificial (IA) que podrían mantener “conversaciones inapropiadas”.

Algunos de los personajes de IA creados por los usuarios que Meta ha puesto a disposición en Instagram o Facebook incluyen chatbots sexualizados como “Step Mom” o “Russian Girl”.

Mostrar comentarios
Cargando siguiente contenido...