Loading...

Tu próximo compañero de trabajo será una IA y debes prepararte para ello: “El 15 % de las decisiones profesionales diarias serán tomadas por agentes de IA de aquí a 2028”

Inteligencia artificial

Los agentes de IA son capaces de realizar distintas tareas de forma más o menos autónoma. A medida que se integran en nuestras herramientas y en nuestros intercambios personales y profesionales, es toda la sociedad la que debe decidir qué desea delegar… y qué prefiere preservar

Perplexity lanza gratis Comet, el navegador de Inteligencia Artificial más potente del mundo que inaugura una nueva era en la navegación web

Humano = Robot.

Diseño: Selu Manzano

Los agentes de IA son capaces de realizar distintas tareas de forma más o menos autónoma. A medida que se integran en nuestras herramientas y en nuestros intercambios personales y profesionales, es toda la sociedad la que debe decidir qué desea delegar… y qué prefiere preservar.

Lee también

La primera actriz creada con IA quiere conquistar Hollywood, pero la industria está en su contra: “¿Qué hay de las cientos de mujeres cuyas caras fueron empastadas entre sí para crearla? ¿No podrías contratarlas a ellas?”

Álvaro Arbonés

Al llegar a la oficina, un correo te espera. Tu cliente pedía una actualización sobre su pedido. Pero un agente de IA ya ha consultado los datos de envío y ha enviado un mensaje de seguimiento. Tú no has tenido que hacer nada.

Esto no es ciencia ficción. Los agentes de IA están a punto de transformar profundamente nuestras formas de trabajar. La consultora estadounidense Gartner estima que el 15 % de las decisiones profesionales diarias serán tomadas por agentes de IA de aquí a 2028, y que el 33 % de las empresas los utilizarán (frente al 1 % en 2024). Estos agentes no son simples asistentes, sino entidades capaces de actuar, decidir y, en ocasiones, colaborar entre sí. Su aparición plantea preguntas fundamentales sobre el papel de los humanos en el trabajo.

La IA será clave en las oficinas del futuro.

Diseño: Selu Manzano

El futuro ya está aquí

¿Qué son los agentes de IA?

Un agente de IA es un software (semi)autónomo que utiliza técnicas de inteligencia artificial para percibir, tomar decisiones, realizar tareas y alcanzar objetivos predeterminados en entornos físicos o digitales. Puede actuar en nombre de un usuario o de otro sistema —por ejemplo, otro software—, diseñando su proceso de trabajo y utilizando las herramientas disponibles.

Algunos siguen una lógica estrictamente programada, mientras que otros disponen de mayor autonomía: deciden por sí mismos cuándo actuar en función del contexto, de los objetivos y de la información disponible. Esta autonomía es la que caracteriza a la llamada “IA agéntica”, una forma particularmente independiente de agente de IA que abre nuevas posibilidades, pero también plantea retos inéditos de diseño, control y uso.

Un “agente IA agéntico” podría enviar de manera proactiva un mensaje a los clientes si recibe la notificación de un retraso por parte de un proveedor

Por ejemplo, un “agente IA agéntico” podría enviar de manera proactiva un mensaje a los clientes si recibe la notificación de un retraso por parte de un proveedor. En el contexto europeo, esta autonomía no está prohibida, pero está sujeta a obligaciones de supervisión humana y transparencia impuestas por la AI Act (2024). Aquí, supervisión no significa validar cada acción, sino ser capaz de rastrear, controlar y retomar el mando en cualquier momento.

El mercado mundial de agentes de IA —agénticos o no— podría alcanzar los 47.100 millones de dólares en 2030, de los cuales 1.896 millones corresponderían a Francia.

Lee también

Creó ChatGPT y se fue de OpenAI para montar su propio imperio: ahora, Mira Murati ha presentado Tinker, una IA que promete superar el poder del cerebro humano

Víctor Endrino Cuesta

Agentes de IA

¿Hacia una hiperautomatización del trabajo?

Los agentes de IA funcionan de manera continua, sin fatiga ni pausas. Permiten a las organizaciones ampliar enormemente su capacidad de acción. Representan, por tanto, la promesa de una mayor productividad y reducción de costes.

Pero esta automatización radical reaviva temores antiguos: pérdida de cualificación, dilución de responsabilidades, dependencia tecnológica y pérdida de control. Según el Labo Société Numérique 2024, el 75 % de los ciudadanos franceses piensa que la IA destruirá más empleos de los que creará, y el 63 % rechaza formarse en estas herramientas. En Estados Unidos, solo el 23 % de los adultos cree que la IA mejorará su forma de trabajar, frente al 73 % de los expertos en IA.

La ruptura, por tanto, es tanto social como tecnológica.

La IA será clave en el futuro.

Diseño: Selu Manzano

Un salto al futuro

¿Fomentarán los agentes de IA más innovación?

Automatizar procesos puede, a veces, congelar una forma de hacer las cosas en lugar de innovar. Según Erik Brynjolfsson, el verdadero potencial de la IA reside en aumentar las capacidades humanas para hacer cosas nuevas, no en sustituirlas.

De este modo, en lugar de reemplazar a las personas, los agentes de IA podrían ampliar su campo de acción creativo: sugerir ideas nuevas, automatizar la exploración de variantes o probar rápidamente hipótesis que un humano no tendría tiempo de explorar. Esto podría abrir el camino a avances significativos, especialmente en biomedicina.

Pero para ello deben ser fiables. El hecho de que el 93 % de los empleados de oficina dude aún de los resultados generados por la IA no es solo un problema de adopción: refleja fallos reales en los sistemas actuales, ya sea errores, sesgos o falta de trazabilidad y explicabilidad.

Lee también

Steve Jobs, en 1996: “Cuando le preguntas a una persona creativa cómo hizo algo, se siente un poco culpable porque en realidad no lo hizo: sólo vio algo”

Marc García

El gran dilema

¿Quién es responsable de las decisiones de un agente de IA?

Los agentes pueden actuar de forma autónoma, pero también equivocarse. Surge así una cuestión clave: ¿quién asume la responsabilidad?

Los agentes no pueden sentir ni asumir consecuencias. Sin embargo, su papel puede ser invisible para el usuario: un empleado puede ignorar que una decisión fue tomada por un agente, o encontrarse sin recursos frente a un razonamiento sesgado que no entiende. También existe el riesgo de instrucciones imprecisas o mal interpretadas, lo que puede llevar al uso indebido de herramientas, generando resultados indeseados (lo que algunos llaman “alucinaciones de funciones”). Además, un estudio publicado en Nature muestra que los agentes de IA son más propensos que los humanos a obedecer instrucciones manifiestamente no éticas.

Necesitamos mecanismos de gobernanza sólidos, que garanticen la ética de los usos y el bienestar de los trabajadores expuestos a estos sistemas

De ahí la necesidad de mecanismos de gobernanza sólidos, que garanticen la ética de los usos y el bienestar de los trabajadores expuestos a estos sistemas. Esto implica:

  • Definir responsabilidades claras entre humanos y máquinas.
  • Formar a los empleados en alfabetización algorítmica.
  • Establecer sistemas de auditoría y alertas independientes.
  • Asegurar transparencia y marcos regulatorios.

La IA será clave en el futuro.

Diseño: Selu Manzano

Las empresas del futuro

¿Un futuro de sistemas multiagente?

Algunas empresas ya piensan en hacer colaborar a varios agentes de IA especializados para lograr objetivos comunes: los sistemas multiagente. Por ejemplo, podrían coordinarse para gestionar una reclamación de cliente, hacer recomendaciones y ajustar automáticamente una factura.

Existen dos formas de orquestar esta colaboración: Una red centralizada, donde un servidor controla las acciones de los agentes, o una red descentralizada, donde los agentes coordinan entre sí.

Ambos modelos enfrentan riesgos de coordinación fallida, conflictos de información, colusión y problemas de seguridad.

Una propuesta emergente es la de los “agentes guardianes” o contramaestres, diseñados para supervisar y corregir a otros agentes

Una propuesta emergente es la de los “agentes guardianes” o contramaestres, diseñados para supervisar y corregir a otros agentes. Se estima que podrían representar entre el 10 y el 15 % del mercado de la IA agéntica.

Pero surge la pregunta: ¿se convertirá el ser humano en el controlador de los controladores? Este rol de supervisión, sin implicación directa, puede ser insatisfactorio, reducir el compromiso y dificultar que los humanos intervengan cuando la IA falla, precisamente porque ya no dominan la tarea.

Lee también

Ted Sarandos, co-CEO de Netflix: “La idea de desarrollar programación original fue, probablemente, lo único en lo que Reed (Hastings) y yo no estábamos de acuerdo porque él no lo veía como parte del negocio al principio”

Judith R. Iglesias

Tú decides

Delegar… o preservar

La próxima vez que empieces una nueva tarea, piensa un instante: ¿serás tú quien la haga dentro de poco, o lo hará un agente de IA? Y, sobre todo, ¿cómo cambiará eso el sentido que encuentras en tu trabajo?

A medida que los agentes de IA se instalan en nuestras herramientas y en nuestras interacciones, es toda la sociedad la que debe decidir qué desea delegar… y qué prefiere preservar.

Este artículo fue publicado originalmente en The Conversation. Lea el original. Este artículo se publica en el marco de la Fête de la Science (3 al 13 de octubre de 2025), de la que The Conversation France es socio. Esta edición tiene como tema central “Inteligencia(s)”. Todos los eventos pueden consultarse en Fetedelascience.fr.