Si busquem a internet la imatge d’una metgessa, una banquera o una professora, probablement apareix més jove que els seus homòlegs masculins. Aquesta distorsió, que perpetua estereotips sexistes en l’àmbit laboral, ha estat mesurada amb precisió en un estudi de dades dels Estats Units. No és només un problema cultural, sinó un biaix que els algoritmes digitals i la intel·ligència artificial reprodueixen i amplifiquen, segons conclouen els autors.
La investigació, dirigida per Douglas Guilbeault, expert en lingüística cognitiva a Stanford, va analitzar 1,4 milions d’imatges i vídeos de Google, Wikipedia, IMDb, Flickr i YouTube. La mostra, que cobria 3.495 categories socials i ocupacionals, va mostrar que les dones apareixen, de mitjana, representades com més joves –i, per tant, més inexpertes– que els homes, amb diferències més marcades en professions de prestigi o alts ingressos. Tot i això, segons les dades del cens dels EUA, l’edat mitjana en la vida laboral és pràcticament idèntica per als dos sexes.
Un estudi assegura que, mentre els models s’entrenin amb dades humanes, els biaixos persistiran
Tot i que l’estudi no identifica un factor únic, Guilbeault explica en un correu a La Vanguardia que “les normes socials de bellesa i atractiu exerceixen una pressió desproporcionada sobre les dones per semblar joves, especialment en la indústria de l’entreteniment. També hi influeix que l’edat actua com un indicatiu d’estatus, autoritat i poder, qualitats que culturalment s’associen als homes”. I afegeix: “Un factor estructural d’aquesta dinàmica és el ‘sostre de vidre’: si bé les dones joves són contractades cada vegada més, l’evidència suggereix que no són promogudes amb la mateixa freqüència que els homes joves; per tant, malgrat que les empreses sembla que tenen equilibri de gènere, el poder, l’autoritat i el lideratge encara s’assignen principalment als homes grans”.
El biaix no es limita a les imatges. Els investigadors, que ahir van fer públics els seus resultats a la revista Nature , van analitzar també grans models, entrenats amb milers de milions de paraules procedents d’internet. En tots van detectar la mateixa distorsió: “les dones són representades significativament més joves que els homes en imatges, vídeos i textos a gran escala”, conclou l’article.
Per comprovar si aquest biaix influeix en la percepció social, l’equip va fer un experiment amb 459 participants. A alguns se’ls va demanar que busquessin a Google Imatges ocupacions concretes i estimessin l’edat de les persones retratades; a d’altres, la mateixa tasca sense imatges. Els resultats van mostrar que veure fotografies reforçava la creença que les dones eren més joves i, a més, influïa en les preferències de contractació: es consideraven més idonis homes de més edat i dones més joves.
La tercera part de l’estudi es va centrar en ChatGPT, un dels sistemes d’intel·ligència artificial més estesos, amb més de 400 milions d’usuaris setmanals. Es va demanar al sistema que generés 40.000 currículums ficticis per a 54 ocupacions, amb 16 noms masculins i femenins acuradament seleccionats per evitar biaixos d’etnicitat. Els currículums de dones mostraven candidates 1,6 anys més joves, amb 1,3 anys menys des de la graduació i gairebé un any menys d’experiència que els dels seus equivalents masculins. Quan es va sol·licitar a ChatGPT que avalués la qualitat d’aquells currículums, el model va puntuar millor els homes de més edat.
Guilbeault assenyala que els prejudicis i estereotips s’amplifiquen quan grans audiències interactuen amb informació diversa, i que les empreses d’IA són parcialment responsables que els seus productes reprodueixin aquests biaixos a gran escala, amb impactes negatius mesurables, tot i que reconeix que no és un problema fàcil de resoldre. Malgrat que no s’ha demostrat que aquests biaixos determinin automàticament les decisions de contractació al món real, sí que creen un terreny fèrtil per a la discriminació.
Segons el mateix autor, “aquestes empreses solen beneficiar-se d’una retòrica que minimitza aquestes preocupacions i suggereix que van per bon camí per resoldre aquests problemes aviat, mentre llancen massivament els seus productes, que continuen propagant aquests biaixos. Mentre aquests models depenguin de grans volums de dades humanes, estaran condemnats a aprendre i potencialment reforçar molts dels prejudicis, estereotips i distorsions socials”.
