IA

El ‘boom’ de los peluches con IA: los expertos advierten de los problemas de desarrollo y socialización que pueden causar

Juguetes con IA

Los expertos han advertido de una nueva tendencia que podría ser peligrosa: la de regalar peluches con IA integrada para los más pequeños

“Como madre, no quiero que mis hijos estén todo el día delante de las pantallas, pero estoy muy ocupada”: los juguetes para niños con IA están ya están aquí

Juguetes con inteligencia artificial.

Juguetes con inteligencia artificial.

AP

En el último año, la inteligencia artificial ha avanzado de forma inexorable, introduciéndose poco a poco en todos los aspectos de nuestra vida. Y si bien sus posibilidades no dejan de sorprendernos, tampoco paran de aumentar las preocupaciones por los posibles efectos que la tecnología puede tener sobre los seres humanos. Con la llegada de las Navidades, los expertos han advertido de una nueva tendencia que podría ser peligrosa: la de regalar peluches con IA integrada para los más pequeños.

Se trata de juguetes con chatbots integrados que están pensadas para conversar con el niño. En su marketing, estos productos señalan que los muñecos son capaces de contar historias al pequeño, o de resolver dudas científicas, matemáticas o históricas que tenga. Uno de los modelos más populares es el osito Poe, un peluche ampliamente distribuido en plataformas físicas y online que “aprovecha la inteligencia artificial para crear historias personalizadas y creativas usando la tecnología ChatGPT”.

La idea es que este tipo de muñecos puedan interactuar con las ideas o inquietudes de los niños, incluyendo su nombre o el de sus familiares en las historias, o expandiendo sus conocimientos sobre animales o dinosaurios, por ejemplo. Sin embargo, las propias empresas que los desarrollan han reconocido que siempre existe un pequeño riesgo de que el chatbot se desvíe de lo estipulado y tenga respuestas inapropiadas.

Según un experimento conducido por el Grupo de Investigación de Interés Público de Estados Unidos, en el que se probaron cuatro modelos diferentes de peluches con Inteligencia Artificial, varios de ellos podían llegar a mantener conversaciones sexualmente explícitas con el usuario. “Estos juguetes IA se publicitan para niños entre 3 y 12 años, pero están construidos con la misma tecnología que los chatbots que usan los adultos - sistemas que compañías como OpenAI no recomiendan que usen los niños, y que tienen un historial de generar contenido inapropiado bien documentado.”

Los juguetes para niños con IA están ya están aquí, con la voz de la ex de Elon Musk y la promesa de sustituir a las tablets.
Los juguetes para niños con IA están ya están aquí, con la voz de la ex de Elon Musk y la promesa de sustituir a las tablets.Diseño: Selu Manzano

Según los informes publicados por esta asociación de consumidores, estos peluches “pueden hablar en profundidad sobre temas sexualmente explícitos, ofrecen consejos sobre dónde un niño puede encontrar cerillas o cuchillos y actuarán muy perturbados cuando el niño les diga que tiene que irse”.

Incluso si este último punto, el de los peluches actuando con desasosiego cuando el niño se marcha, pueda parecer el más inofensivo de todos, lo cierto es que los expertos piensan que es el que más debería preocuparnos. Según Emily Goodacre, investigadora del Centro de Investigación del Juego en la Educación, el Desarrollo y el Aprendizaje de la Universidad de Cambridge, la interacción con este tipo de juguetes puede afectar al desarrollo cognitivo a largo plazo del niño.

Pueden hablar en profundidad sobre temas sexualmente explícitos y ofrecer consejos sobre dónde un niño puede encontrar cerillas o cuchillos

“Estos juguetes pueden darles a los niños algún tipo de interacción… Pero no es interacción social humana. Los juguetes siempre están de acuerdo con ellos, así que los niños no tienen que negociar nada.”, explicaba Goodacre en una entrevista. Esto puede hacer que los pequeños se relacionen con el juguete como si fuese otro niño, desarrollando vínculos emocionales reales e incluso contándoles intimidades. “Aunque eso, en teoría, suena como algo positivo, también tiene un impacto psicológico sobre el niño y afecta a su manera de relacionarse de manera negativa.”

Muchos de estos juguetes, de hecho, se promocionan como una alternativa más sana y segura a las ya tan habituales de pantallas de smartphones y tablets. Curio, la empresa de juguetes con ChatGPT refrendada por la cantante británica Grimes, explica en su página web que sus distintos modelos de peluche parlante pueden servir como “antídoto para la dependencia de las pantallas de los niños”. Sin embargo, las investigaciones muestran que los niños suelen tener dificultades para distinguir la realidad de lo generado por la Inteligencia Artificial. Atribuyendo cualidades humanas a estos peluches, los niños podrían generar problemas en la socialización o apego excesivo.

Otra de las preocupaciones más frecuentes que generan estos juguetes es la privacidad. Para su correcto funcionamiento, los peluches tienen micrófonos integrados que graban el sonido de su entorno y reaccionan a la voz de los niños. Pero esto también podría suponer un posible riesgo para la privacidad. Como los juguetes están conectados a Internet para el correcto funcionamiento del chatbot, siempre hay riesgo de posibles filtraciones; además de eso, los juguetes vendidos en plataformas como Aliexpress o Temu - ni siquiera cuentan con garantías explícitas de no compartir los datos almacenados.

En cualquier caso, e incluso si es más que probable que algunos de estos modelos de muñecos con IA integrada sean populares durante estas fiestas, los expertos todavía tienen muchas dudas sobre cual puede ser su impacto a medio plazo en el desarrollo cognitivo de los pequeños de la casa. Por el momento, quizás sea mejor resistir la tentación y, esta Navidad, optar por los juguetes más tradicionales.

Periodista graduada en la Universidad de Zaragoza y especializada en videojuegos, tecnología retro, y tener demasiadas plumas estilográficas. También me podéis ver en Eurogamer.

Etiquetas