Sociedad

El criterio humano, frente a la autonomía de las máquinas

MWC 2026

Esade participa en el 4YFN y alerta de los riesgos de delegar decisiones, reclama gobernanza y defiende un futuro digital con impacto social

Esade participa un año más en 4YFN, dentro del MWC, bajo el lema “AI for Meaningful Impact” 

Esade participa un año más en 4YFN, dentro del MWC, bajo el lema “AI for Meaningful Impact” 

Esade

La inteligencia artificial ya interviene en decisiones empresariales, económicas y sociales. En este escenario, el reto deja de ser solo tecnológico y se desplaza hacia el liderazgo, el criterio y la responsabilidad. Con este planteamiento, Esade participa un año más en 4YFN, dentro del MWC, bajo el lema “AI for Meaningful Impact”, y apunta que la tecnología solo genera valor real cuando mantiene a las personas en el centro de la toma de decisiones. 

Como colaborador académico oficial de 4YFN, y con presencia por primera vez en Talent Arena, Esade articula una propuesta que conecta tecnología, empresa y humanismo. El hilo conductor que plantea es: ¿Qué sucede cuando la tecnología avanza más rápido que nuestro criterio para su uso? 

Uno de los temas centrales es el paso de las aplicaciones a los agentes de IA. Para Esteve Almirall, profesor del Departamento de Datos, Analytics, Tecnología e IA de Esade, el principal riesgo es la percepción distorsionada de sus capacidades. “El problema más importante es entender bien las limitaciones de los sistemas y las herramientas que se utilizan”, destaca. Explica que, a menudo se producen extrapolaciones erróneas: “Es común creer que una simple automatización puede comportarse como un sistema multiagente, o asumir que un modelo generalista puede captar los matices de un dominio concreto”. 

“La tecnología solo genera valor real cuando mantiene a las personas en el centro de la toma de decisiones”

También alerta de la carencia de visibilidad. En ámbitos como la compliance contractual, la transformación es ya tangible. “La tarea de leer y examinar contratos largos era trabajo de júniores. Hoy recae en agentes que aceptan contratos, derivan algunos a revisión humana y sugieren nuevas cláusulas”. Por eso, “el trabajo clave es discernir límites, supervisar casos frontera y hacer evolucionar a los agentes”. 

Este enfoque de innovación tecnológica con una mirada humanista y responsable también se refleja en la oferta formativa de Esade, centrada en la comprensión estratégica de la IA. La escuela impulsa programas como La inteligencia artificial en los negocios, Rethinking Business with AI, el Master in Digital Business y formaciones de alta dirección como el Executive MBA. Además, ha sido pionera con el lanzamiento en 2021 del doble grado Bachelor of Business Administration & Business and Artificial Intelligence, pensado para formar a profesionales capaces de integrar la IA en la toma de decisiones estratégicas basada en datos, con criterio crítico e impacto positivo. 

Decisiones humanas

La responsabilidad es el otro pilar del debate. Irene Unceta, profesora titular del Departamento de Datos, Analytics, Tecnología e IA de Esade, advierte que “cuando un agente de IA se equivoca, el error raramente es solo técnico”. Recuerda que siempre hay decisiones humanas detrás: “Alguien decide con qué datos entrenarlo, qué objetivo persigue y con qué margen de libertad dotarlo”. Por eso dice que “la responsabilidad no se puede diluir en el sistema; es una categoría humana e institucional”, que recae en desarrolladores, organizaciones, reguladores y, en algunos casos, usuarios. El debate, dice, es de gobernanza: “Cuanta más libertad de acción tiene un sistema, más necesaria resulta la supervisión humana”. 

También alerta sobre la autonomía. “Preservarla tiene que ver con decidir qué decisiones queremos automatizar”. El riesgo aparece cuando se pierde comprensión, ya que “si no entendemos el porqué de una decisión, perdemos la capacidad de reflexionar”. El objetivo debe ser “amplificar nuestra capacidad de decisión, no sustituirla”. 

“Cuando un agente de IA se equivoca, el error raramente es solo técnico, siempre hay decisiones humanas detrás”

La dimensión social completa la mirada. Liliana Arroyo, profesora e investigadora del Departamento de Sociedad, Política y Sostenibilidad de Esade, defiende “un rediseño centrado en las personas”, que pase de la captura de atención a modelos que promuevan “bienestar, empatía y cohesión social”. Reclama alfabetización digital crítica y reconocimiento del derecho a la desconexión. Apuesta por “un modelo híbrido y participativo que combine regulación pública, autorregulación empresarial y corresponsabilidad social”, basado en derechos humanos, equidad y transparencia. 

Esade refuerza este posicionamiento en 4YFN y en Talent Arena. “Abordar las implicaciones humanistas, sociales y medioambientales de la IA es una responsabilidad”, señala el director general, Daniel Traça.

Martes 3 de marzo

Ponencias destacadas

15:15-15:30 h | KEYNOTE
Daniel Traça. Director general de Esade
Liderar para generar un impacto visible en la nueva economía

15:30 – 16 h | FIRESIDE CHAT
Lisa Hehenberger, moderadora. Decana de Esade Business School
Nuno Brito Jorge. Fundador y CEO de Goparity
Qué necesitan el planeta (y los fondos de capital riesgo) de los líderes del futuro

16:05 – 16:45 h | MESA REDONDA
Irene Unceta, moderadora.Profesora de Esade
Sergi Bastardas. Fundador y CEO de OrbioAI 
Migle Laukyte. Profesora de Inteligencia Artificial
y Derecho de la UPF y miembro del European Group on Ethics in Science and New Technologies
¿Quién manda realmente? Recuperar la autonomía humana en la era de los agentes de la IA

16:50 – 17:30 h | MESA REDONDA
Ana Valenzuela, moderadora. Profesora de Esade
Salome Gozalishvili. CRM & Lifecycle Marketing Leader
en Candy Crush Saga (KING / Xbox)
IA para el márketing: ¿Puede un algoritmo “conmover” a tus clientes?

18:20 – 19 h | FIRESIDE CHAT
Liliana Arroyo, moderadora. Profesora de Esade
Alison Lee. Chief R&D Officer de The Rithm Project
De la interacción al sentimiento de pertenencia: repensar los algoritmos para un futuro digital prosocial

Etiquetas