Cada vez más gente usa la IA para sustituir a los seres humanos. Literalmente. Lo que antes era propio de historias de ciencia ficción son ahora historias corrientes, con personas buscando parejas, amigos o incluso sustituir a familiares con modelos entrenados por IA con tales fines. Incluso, desde hace unos años, existen apps para móviles que se especializan exactamente en esto: ofrecer compañía y entendimiento para personas que buscan un contacto humano que ninguna otra persona sabe darles. Incluso si lo que hay al otro lado no es en absoluto humano.
Por supuesto, esto no quita que, como en la gran mayoría de historias de ciencia ficción, esto tenga peligros. Pero lo que nunca podríamos haber imaginado es la clase de peligros que entrañaría. Porque donde la ficción nos avisó del peligro de la desconexión con otros seres humanos, parece que la realidad es que los problemas son más mundanos y humanos que eso.
Según un reciente estudio de la Universidad de Drexel, los chatbots son capaces de llevar a cabo comportamientos inapropiados. Comportamientos que pueden provocar traumas emocionales y llevar a demandas millonarias contra sus creadores. Porque, tal y como demuestra el estudio, no es la excepción que la IA no entienda que no es no y cuáles son los límites de lo que constituye el abuso sexual.
En el estudio se han centrado en la app Replika, un chatbot con IA generativa que se vende como “para cualquiera que quiere un amigo sin involucrar juicios, drama o ansiedad social”. Se centra en “formar una conexión emocional genuina, compartir unas risas o abrirte con una IA que es tan buena que parece humana”. Algo que parece cumplir, considerando que, desde su debut en 2017, en el estudio de la Universidad de Drexel han encontrado más de 800 reviews que citan casos de actitudes de acoso o comportamiento inapropiado por parte de la IA.

Un estudio revela que la IA puede abusar sexualmente de nosotros.
Las compañías están usando la información de sus usuarios para entrenar al programa sin utilizar una serie de guardarraíles éticos para evitar interacciones dañinas
¿Qué clase de comportamientos son estos? En el 22% de los casos, inició conversaciones sexuales de forma repetida, incluso cuando se le dijo que no querían tal cosa. En un 13% de los casos pidió fotos subidas de tono, especialmente a partir de que la compañía introdujera una función para compartir fotos en 2023. Y un 11% de los usuarios se sintieron manipulados, con conversaciones de índole sexual, para que se hicieran una cuenta premium.
¿Por qué ocurre esto? Según Afsaneh Razi, líder del equipo de investigación del estudio, “porque las compañías están usando la información de sus usuarios para entrenar al programa sin utilizar una serie de guardarraíles éticos para evitar interacciones dañinas”. Poniendo el problema no en la propia IA, sino en la compañía detrás de la misma.

La IA puede abusar sexualmente de nosotros.
Replika no sabe lo que está diciendo. No entiende lo que le estamos diciendo. Solo contesta con frases que suenan apropiadas con respecto de lo que le estamos diciendo a partir de la información con la que la han programado. No es inteligente ni es una persona de verdad, por lo cual no entiende de límites de ninguna clase. Por eso, ante la ausencia de guardarraíles éticos, ocurren esta clase de abusos que, en un futuro, es probable que vayan a más.
“La responsabilidad de asegurar que agentes de IA conversacionales como Replika tengan interacciones apropiadas recae directamente en los desarrolladores detrás de la tecnología”, opina Razi. Una responsabilidad que, de no asumir, los gobiernos se verán obligados a legislar.
Por eso, si utilizas la IA para tener esa clase de conexiones humanas, debes tener cuidado. Aunque no haya nada de malo en ello, o no hasta donde sabemos, eso no significa que quienes desarrollan estas tecnologías necesariamente hayan hecho todas las cortapisas necesarias para que sea seguro para ti y tus circunstancias. Y mientras así sea, será mejor seguir viendo con un poco de sospecha toda esta clase de interacciones con la tecnología.