Judith Membrives, investigadora en igualdad y derechos humanos: “Hay que desmontar la idea de que la IA es una revolución imparable, apolítica y beneficiosa, es lo que quieren las grandes tecnológicas”
Igualdad digital
Judith Membrives es investigadora del IN3 de la UOC y responsable de IA y Derechos Humanos en Lafede. Hablamos con ella de sesgo de género en la automatización y el papel de la inteligencia artificial en nuestro tiempo
El 79% de los empleos femeninos podrían ser sustituidos por una IA: “La inteligencia artificial está reforzando la desigualdad ya existente entre hombres y mujeres”

Judith Membrives, investigadora en igualdad y derechos humanos.
En la era de la transformación digital, la Inteligencia Artificial se ha consolidado como una fuerza imparable con el potencial de redefinir el panorama laboral a nivel global. Sin embargo, más allá de la narrativa de progreso y eficiencia, emerge una preocupación crucial: ¿cómo está impactando la IA en la desigualdad de género en el mundo del trabajo?
Se observa una tendencia creciente donde los puestos tradicionalmente ocupados por mujeres son los primeros en ser afectados por la automatización, planteando interrogantes sobre la neutralidad de esta revolución tecnológica. Para profundizar en este complejo fenómeno y comprender sus implicaciones, conversamos con Judith Membrives, investigadora del IN3 de la UOC y responsable de IA y Derechos Humanos en Lafede.
¿Cómo está impactando la IA mundo laboral, especialmente en trabajos tradicionalmente ocupados por mujeres?
Lo que estamos observando es una automatización que no es neutra ni inevitable. A menudo se presentan los cambios tecnológicos como procesos técnicos, pero en realidad son decisiones políticas y económicas. En el caso del trabajo feminizado, la IA está reforzando patrones de desigualdad ya existentes: las tareas que se automatizan primero son aquellas menos valoradas socialmente, a pesar de ser esenciales. Esto incluye funciones relacionadas con la atención, el apoyo administrativo o la gestión emocional, que muchas veces se consideran “soft skills”, pero son fundamentales para el funcionamiento de servicios esenciales.
Destacas que la IA automatiza tareas menos valoradas socialmente, pero esenciales, como las relacionadas con la atención, el apoyo administrativo o la gestión emocional. Ante esta tendencia, ¿cómo podríamos revalorizar y proteger los trabajos que requieren estas “soft skills” frente a la creciente automatización?
Te doy una opinión basada en mi perspectiva crítica con el trabajo dentro del sistema capitalista. Creo que para revalorizar las “soft skills”, es necesario empezar por cambiar los indicadores que definen lo que cuenta como trabajo valioso. Esto implica incorporar criterios cualitativos en las políticas públicas y en las evaluaciones laborales, que reconozcan explícitamente el impacto social, emocional y relacional de estas tareas. También es clave que estas habilidades pasen a formar parte de los estándares profesionales reconocidos, con salarios y condiciones laborales dignas asociadas. No se trata de hacerlas “irremplazables” tecnológicamente, sino de asumir que su aportación humana es intransferible y central para el bienestar colectivo. Por eso también habría que replantear muchas lógicas del mercado laboral, especialmente en el sector de los cuidados.
¿Hay sectores o perfiles profesionales que estén especialmente expuestos a ser sustituidos por sistemas automatizados?
Sí, claramente. Y no por una cuestión de “eficiencia” tecnológica, sino por cómo se ha decidido mercantilizar la innovación. Los sectores más expuestos son aquellos donde las tareas se pueden segmentar, digitalizar y evaluar según criterios de optimización. Esto afecta sobre todo trabajos que tradicionalmente ocupan personas feminizadas, racializadas o en situación de precariedad, que han sido históricamente invisibilizadas o infravaloradas. Esta exposición no es casual: responde a una lógica de maximización del beneficio que aprovecha la carencia de derechos, de sindicación y de reconocimiento de determinados colectivos laborales.
Muchas tareas de cuidados, educación o apoyo administrativo —ámbitos fuertemente feminizados— se están digitalizando. ¿Qué riesgos ves en esta tendencia?
El riesgo principal es deshumanizar la relación social. Cuando digitalizamos procesos de cuidados o la educación, no solo hablamos de cambiar herramientas, sino de redefinir valores. La IA, en estos contextos, tiende a reducir la complejidad de las relaciones humanas a datos cuantificables. Esto puede erosionar el vínculo, la confianza y la capacidad de acompañar emocionalmente. Además, se corre el riesgo de consolidar modelos tecnológicos que sustituyen, y no refuerzan, las personas profesionales.
Estamos observando es una automatización que no es neutra ni inevitable
¿Qué mecanismos concretos podrían implementarse para evitar que la IA, en estos ámbitos, reduzca la complejidad de las relaciones humanas a datos cuantificables?
Para evitar la deshumanización, una estrategia es limitar claramente los ámbitos de uso de la IA en servicios sensibles. Por ejemplo, establecer zonas de no automatización en momentos clave del proceso educativo o de cuidados (acogida, diagnóstico, toma de decisiones delicadas). Además, es necesario desarrollar mecanismos de evaluación participativa en los que las personas usuarias (niños, personas cuidadoras, docentes) tengan voz sobre cómo se implementan estas tecnologías. Finalmente, hay que apostar por IA diseñada desde una ética del apoyo relacional y no de la sustitución, con codiseño comunitario y protocolos de calidad humana.
¿Cómo influye el sesgo algorítmico y de género en el desarrollo y despliegue de sistemas de IA en el mundo laboral?
La IA no sólo replica sesgos, sino que los sistematiza a escala. Cuando los sistemas se entrenan con datos históricos que reflejan discriminaciones estructurales, estas se incorporan a los algoritmos como si fueran “realidades objetivas”. Así, los procesos de contratación automatizados pueden penalizar a las mujeres o personas no normativas; los sistemas de control horario pueden vigilar más a determinados cuerpos. El problema no es sólo técnico, es profundamente político y estructural. Tiene relación con quién y cómo se diseña la tecnología pero no se arregla solo incorporando más mujeres o personas diversas a los equipos de desarrollo.
A menudo, hablamos de una transición digital ‘justa’, pero ¿quien la define y con qué criterios? Hay espacio para incorporar la mirada feminista en este debate?
Desgraciadamente, a menudo la “justicia” digital se define desde despachos lejanos, con poca presencia de colectivos afectados. Pero sí, hay espacio para incorporar miradas feministas —y no solo espacio: es imprescindible hacerlo si queremos imaginar una transición digital que no sea extractiva, excluyente o neoliberal. Los feminismos aportan herramientas valiosas para pensar el trabajo más allá de la productividad, para reconocer las curas, y para priorizar la vida en lugar del beneficio.
¿Cómo podríamos fomentar la participación activa de sindicatos, cooperativas y movimientos sociales en la construcción de esta “transición digital justa”?
La participación no puede reducirse a consultas simbólicas. Hay que crear espacios de coproducción de políticas digitales donde todos estos colectivos que mencionas —sindicatos, cooperativas y movimientos sociales—, pero también comunidades, organizaciones de base y grupos locales, tengan poder vinculante. Esto implica tiempo, recursos y acceso a la información. También deberían establecerse estructuras permanentes de deliberación tecnopolítica a escala local y sectorial, donde se pueda discutir de manera continuada el impacto de la digitalización en el trabajo y la vida cotidiana. Esta participación debe estar financiada públicamente y reconocida institucionalmente, no delegada a la buena voluntad. Porque entonces, generalmente, solo pueden sostener una participación continuada quienes están en posiciones de mayor privilegio.
Los sectores más expuestos son aquellos donde las tareas se pueden segmentar y digitalizar. Esto afecta sobre todo trabajos que tradicionalmente ocupan personas feminizadas, racializadas o en situación de precariedad
En un contexto de precarización creciente, ¿crees que la IA puede acabar reforzando desigualdades laborales ya existentes?
No solo puede: ya lo está haciendo. Y lo hace de manera más eficiente y menos visible. Con la IA se introducen formas de control y segmentación que precarizar todavía más los trabajos ya frágiles. Para evitarlo, hace falta un enfoque regulador valiendo, pero también una acción colectiva desde las bases: sindicatos, cooperativas, movimientos sociales. Necesitamos mecanismos de supervisión, pero sobre todo espacios de deliberación sobre qué tipo de trabajo volamos y qué papel tiene que jugar la tecnología.
Más allá de la regulación, ¿qué alternativas laborales o modelos de formación y reconversión profesional consideras que deberían impulsarse para las mujeres cuyos empleos están amenazados por la IA?
Creo que estamos dando por supuesta la IA como algo inevitable y gran parte de mi trabajo es cuestionar ese relato. Ahora bien, veo una tendencia en las políticas públicas a centrarse únicamente en la reconversión hacia sectores tecnológicos, y creo que hay que impulsar modelos de transición laboral feministas y comunitarios, que prioricen la soberanía económica y el reconocimiento del trabajo socialmente útil. Esto implica invertir en empleos relacionados con la educación, los cuidados y la sostenibilidad con un enfoque de derechos, y no como nichos precarizados. También es necesario que los programas de formación partan de los conocimientos previos de las mujeres y las comunidades, incluyendo saberes situados, y que no se limiten a “alfabetizarlas” en tecnología, sino que les ofrezcan espacios para coparticipar en su definición.

¿Qué papel crees que debería jugar la administración pública en la regulación del uso de la IA para proteger los derechos laborales y la igualdad de género?
La administración tendría que asumir un papel proactivo y garantista. No basta con regular a posteriori. Hacen falta mecanismos de evaluación de impacto antes de implementar tecnologías, protocolos de transparencia, y espacios de participación ciudadana. También es fundamental invertir en alternativas públicas, abiertas y éticas, y no depender exclusivamente de infraestructuras tecnológicas privadas que operan con lógicas opacas.
¿Conoces algún caso reciente que te haya indignado especialmente en cuanto a IA y género? ¿Alguna noticia que te haya hecho decir: “Basta”?
Más que un caso concreto, me preocupa una tendencia: la glamurización de la IA como si fuera una cosa inevitable y apolítica. Vemos como grandes empresas venden soluciones algorítmicas que afectan la vida cotidiana de miles de mujeres, personas trans y personas migradas o racializadas —desde aplicaciones de vigilancia de personal doméstico hasta sistemas que deciden quién tiene acceso a ayudas sociales— y todo esto se presenta como progreso. Esta idea de “tecnología neutra para el bien común” es una falacia que me hace saltar todas las alarmas.
La IA tiende a reducir la complejidad de las relaciones humanas a datos cuantificables
¿Qué narrativas alternativas o contra-narrativas podríamos construir para desmontar esa “glamurización” y evidenciar las implicaciones políticas y económicas de la IA en el mundo laboral y social?
Necesitamos construir narrativas que relacionen la IA con la materialidad de sus impactos: desde la explotación laboral y extractiva hasta el control social y la reproducción de desigualdades. Frente a la promesa de neutralidad e inevitabilidad, hay que hablar de responsabilidad política y mostrar que cada diseño tecnológico es una decisión situada, que responde a intereses concretos. Esto implica desmontar el relato hegemónico impulsado por las grandes tecnológicas, que presentan la IA como una revolución imparable, apolítica e inherentemente beneficiosa. Hay que analizar quién construye esos imaginarios, con qué intereses y con qué efectos.
¿Y cómo se puede luchar contra un fenómeno tan poderoso?
No se trata de frenar el desarrollo tecnológico, sino de dotarlo de valores diferentes, alineados con retos contemporáneos como la emergencia climática, la justicia social y la redistribución del poder. Los medios de comunicación tienen un papel fundamental en este cambio de relato. Hace dos años, desde Lafede.cat y el Grup de Periodistes Ramon Barnils, elaboramos un informe que analizaba cómo se estaba informando sobre la IA y ponía sobre la mesa problemáticas graves como la falta de pluralidad de voces, el uso de fuentes únicamente de la industria y la ausencia de perspectiva de derechos. El informe ofrecía recomendaciones para revertirlo. También es necesario que las instituciones educativas asuman el reto de formar en pensamiento crítico tecnopolítico y democracia digital, yendo más allá de la lógica instrumental de las competencias digitales. Solo así podremos desmontar la glamurización acrítica y construir una alfabetización tecnológica crítica.
Desde el marco de los derechos digitales, ¿cómo podemos garantizar que los sistemas de inteligencia artificial no reproduzcan estructuras de poder patriarcales?
El primer paso es reconocer que el problema no es solo la diversidad de los equipos, sino el marco en que operan. Si los objetivos del desarrollo tecnológico son la eficiencia, el beneficio y la explotación de datos, no hay diversidad que lo salve. Dicho esto, evidentemente que la carencia de voces no hegemónicas contribuye a sistemas más sesgados. Necesitamos incorporar epistemologías diversas, saberes situados y miradas críticas desde el diseño hasta la implementación.
Desde una perspectiva feminista, ¿qué elementos claves se tendrían que considerar en la hora de regular la automatización del trabajo?
Hay que empezar para preguntarnos: ¿qué automatización y para quién? Una perspectiva decolonial y feminista pone la vida y la sostenibilidad en el centro. Esto quiere decir no solo limitar los abusos, sino promover formas de automatización que respeten los derechos laborales, que no invisibilizan ni sobrecarguen más las mujeres o las personas racializadas, y que consideren las condiciones materiales de producción tecnológica. También quiere decir redistribuir el poder: en quien decide, quien vigila y quién se beneficia.

