Si buscamos en internet la imagen de una médica, una banquera o una profesora, probablemente aparezca retratada más joven que sus homólogos masculinos. Esta distorsión, que perpetúa estereotipos sexistas en el ámbito laboral, ha sido medida con precisión en un estudio de datos estadounidense. No se trata solo de un problema cultural, sino de un sesgo que los algoritmos digitales y la inteligencia artificial reproducen y amplifican, según concluyen los autores.
La investigación, dirigida por Douglas Guilbeault, experto en lingüística cognitiva en Stanford, analizó 1,4 millones de imágenes y vídeos procedentes de Google, Wikipedia, IMDb, Flickr y YouTube. La muestra, que cubría 3.495 categorías sociales y ocupacionales, mostró que las mujeres aparecen de media representadas como más jóvenes —y, por tanto, más inexpertas— que los hombres, con diferencias más marcadas en profesiones de prestigio o altos ingresos. Sin embargo, según los datos del censo de Estados Unidos, la edad media en la vida laboral es prácticamente idéntica para ambos sexos.
Cánones sociales, experiencia y poder
Aunque el estudio no identifica un factor único, Guilbeault explica en un correo a La Vanguardia que “las normas sociales de belleza y atractivo ejercen una presión desproporcionada sobre las mujeres para parecer jóvenes, especialmente en la industria del entretenimiento. También influye que la edad actúa como un indicativo de estatus, autoridad y poder, cualidades que culturalmente se asocian a los hombres.” Y añade: “Un factor estructural de esta dinámica es el ‘techo de cristal’: si bien las mujeres jóvenes son contratadas cada vez más en las empresas, la evidencia sugiere que no son promovidas con la misma frecuencia que los hombres jóvenes; por lo tanto, aunque las empresas parecen tener equilibrio de género, el poder, la autoridad y el liderazgo aún se asignan principalmente a los hombres mayores”.
El sesgo no se limita a las imágenes. Los investigadores, que hoy hacen públicos sus resultados en la revista Nature, analizaron también grandes modelos de lenguaje, entrenados con miles de millones de palabras procedentes de internet. En todos ellos detectaron la misma distorsión: “las mujeres son representadas como significativamente más jóvenes que los hombres en imágenes, vídeos y textos a gran escala”, concluye el artículo.
Para comprobar si este sesgo influye en la percepción social, el equipo realizó un experimento con 459 participantes. A algunos se les pidió que buscaran en Google Imágenes ocupaciones concretas y estimaran la edad de las personas retratadas; a otros, la misma tarea sin imágenes. Los resultados mostraron que ver fotografías reforzaba la creencia de que las mujeres eran más jóvenes y, además, influía en las preferencias de contratación: se consideraba más idóneos a hombres de más edad y a mujeres más jóvenes.
Edadismo de género en ChatGPT
La tercera parte del estudio se centró en ChatGPT, uno de los sistemas de inteligencia artificial más extendidos, con más de 400 millones de usuarios semanales. Se pidió al sistema que generara 40.000 currículums ficticios para 54 ocupaciones, con 16 nombres masculinos y femeninos cuidadosamente seleccionados para evitar sesgos de etnicidad. Los currículums de mujeres mostraban candidatas 1,6 años más jóvenes, con 1,3 años menos desde la graduación y casi un año menos de experiencia que los de sus equivalentes masculinos. Cuando se solicitó a ChatGPT que evaluara la calidad de esos currículums, el modelo puntuó mejor a los hombres de mayor edad.
Guilbeault señala que los prejuicios y estereotipos se amplifican cuando grandes audiencias interactúan con información diversa, y que las empresas de IA son parcialmente responsables de que sus productos reproduzcan estos sesgos a gran escala, con impactos negativos medibles, aunque reconoce que no es un problema fácil de resolver.
A pesar de que no se ha demostrado que estos sesgos determinen automáticamente las decisiones de contratación en el mundo real, sí crean un terreno fértil para la discriminación. Según el mismo autor, “actualmente, estas empresas suelen beneficiarse de una retórica que minimiza estas preocupaciones y sugiere que van por buen camino para resolver estos problemas pronto, al tiempo que lanzan masivamente sus productos, los cuales continúan propagando estos sesgos. Mientras estos modelos dependan de grandes volúmenes de datos humanos, estarán condenados a aprender y potencialmente reforzar muchos de los prejuicios, estereotipos y distorsiones sociales que caracterizan la cultura dominante”.



