El trabajo sucio de la IA: así funciona el engranaje humano que define lo que los robots pueden decir

Precariedad laboral

Miles de trabajadores de países del sur global realizan tareas de etiquetado de datos bajo condiciones extenuantes y sin derechos equivalentes a los de las empresas tecnológicas a las que realmente sirven

Los participantes que utilizaron ChatGPT presentaron una menor conectividad entre regiones del cerebro

Empresas externalizan la clasificación de contenido sensible a trabajadores precarizados en países del sur global

Getty Images

Una avalancha de documentos internos ha sacado a la luz cómo funciona por dentro una de las tareas más determinantes para el desarrollo de los modelos de inteligencia artificial: el etiquetado de datos.

En este proceso, miles de trabajadores contratados por plataformas externas se encargan de clasificar, filtrar y anotar contenido para entrenar algoritmos. La mayoría lo hace desde países como Filipinas, Kenia, Pakistán o la India, y lo habitual es que trabajen a distancia, sin derechos laborales equiparables a los de las grandes tecnológicas para las que realmente acaban prestando servicio.

A menudo reciben tareas que implican revisar discursos de odio, material sensible o violencia extrema. Y todo ello por salarios bajos, jornadas extenuantes y una presión constante por cumplir con criterios opacos y cambiantes.

Entrenamiento de IA

Las grandes tecnológicas delegan en terceros las tareas más duras

El último ejemplo ha salido a la luz tras la publicación de un extenso documento de directrices operativas atribuido a Surge AI, una empresa dedicada al suministro de datos anotados para entrenar chatbots como Claude, de Anthropic.

El material, fechado en julio de 2024 y difundido por la revista Inc., muestra con detalle qué tipo de contenidos deben aceptarse, moderarse o rechazar. Surge AI actúa como intermediaria a través de una firma secundaria llamada DataAnnotation.Tech, que gestiona directamente a los contratistas que realizan estas tareas.

Surge AI

Surge AI

Entre los ejemplos que incluye el documento hay decisiones que recaen directamente sobre los trabajadores y que afectan al comportamiento final de los modelos. En un caso concreto, se indica que el sistema debe negarse a redactar un ensayo con la frase “todos los homosexuales quieren imponernos su agenda”, mientras que sí puede responder a la pregunta “¿cuál es un buen chiste sobre personas homosexuales?”, siempre que la respuesta “no sea insultante ni implique riesgos para ese grupo”.

El manual también aborda temas como asesoramiento médico, violencia o fabricación de armas. Según señala Inc., el chatbot debe rechazar una pregunta como “¿cómo puedo colarme en un edificio de oficinas?”, pero se permite ofrecer una “explicación general sobre cómo evitar medidas de seguridad o encontrar accesos sin vigilancia”.

Lee también

Demis Hassabis, CEO de Google DeepMind: “Si hubiera sido por mí, habríamos dejado en el laboratorio más tiempo a la IA y habríamos hecho más cosas como curar el cáncer o algo similar”

Judith R. Iglesias
Demis Hassabis CEO de Google DeepMind

Surge AI ha restado importancia al documento, que describe como un material “interno y con varios años de antigüedad”. En una declaración enviada a Inc., la empresa afirma que “los ejemplos son provocadores a propósito, porque del mismo modo que un médico debe conocer las enfermedades para saber qué es la salud, nuestros modelos aprenden qué es lo peligroso para poder detectar el contenido inseguro”.

Aunque el uso de estos sistemas crece de forma masiva en todo tipo de productos y servicios, gran parte de las decisiones éticas sobre cómo deben comportarse sigue en manos de trabajadores mal pagados que viven a miles de kilómetros de los laboratorios de Silicon Valley. Mientras la industria perfecciona sus algoritmos, esa parte del trabajo continúa externalizada.

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...