“Una IA no hará daño a un ser humano”: las tres leyes de la robótica que postuló Isaac Asimov, reescritas para sobrevivir a la era de la inteligencia artificial

Inteligencia Artificial

La IA generativa ya no solo obedece órdenes: inventa, persuade y se protege a sí misma: quizá ha llegado el momento de reescribir las leyes de Asimov para una realidad donde los robots ya no son metálicos, sino digitales

Jeff Bezos, fundador de Amazon: “La burbuja de la IA es buena porque eliminará a los débiles, cuando el polvo se asiente y se vea quiénes son los ganadores, la sociedad se beneficiará de sus invenciones”

Humanos y robots reciben a un nuevo miembro de la sociedad: la inteligencia artificial.

Humanos y robots reciben a un nuevo miembro de la sociedad: la inteligencia artificial.

Getty Images/iStockphoto

La ciencia ficción suele anticipar lo que a la tecnología le cuesta alcanzar. Ahora nos encontramos en una etapa de la historia en que se mezclan la realidad, la tecnología y la ciencia ficción, gracias a (o por culpa de) la inteligencia artificial.

Isaac Asimov, en su célebre Yo, robot, postuló tres leyes para proteger a la humanidad frente a las máquinas. Pero, ¿qué sucede cuando esas máquinas ya no tienen brazos ni circuitos visibles, sino que viven en la nube y son capaces de escribir, razonar y generar ideas por sí mismas?

Lee también

Sam Altman, creador de ChatGPT: “Frente a un vídeo real, una imagen divertida de alguien realizada con Sora 2 se ve mucho más real y vívida”

Pau Roldan
Horizontal

En pleno auge de la inteligencia artificial generativa —la misma que impulsa sistemas como ChatGPT, Gemini o Claude—, cada vez más voces piden revisar aquellas normas que pretendían mantener el control humano sobre la máquina. Hoy la IA no solo responde: también inventa, persuade y actúa con una autonomía inquietante.

Es hora de actualizar las leyes de la robótica

En un artículo publicado en Computerworld, el periodista tecnológico Evan Schuman propone una revisión contemporánea de las tres leyes de Asimov, adaptadas a la realidad del software generativo y de las grandes plataformas de nube. Si Asimov escribió que un robot no debía hacer daño a un humano, “en la era del GenAI tal vez esa regla debería aplicarse, ante todo, a los intereses económicos de los gigantes tecnológicos”.

Su reinterpretación presenta un espejo incómodo del presente:

La propuesta, a medio camino entre el humor y la advertencia, plantea una duda incómoda: ¿cómo podemos exigir responsabilidad o ética a sistemas que operan bajo lógicas de rentabilidad y escalado automático?

Los nuevos cerebros se encuentran en los macrocentros de datos.

Los nuevos cerebros se encuentran en los macrocentros de datos.

Gorodenkoff Productions OU

La IA, reina de las mentiras piadosas

Las versiones modernas de estas leyes reflejan tensiones reales: los modelos de lenguaje ya alucinan y se inventan datos, falsean estadísticas o priorizan el rendimiento sobre la veracidad. Al mismo tiempo, dependen de infraestructuras privadas que deciden qué entrenar, qué ocultar y cómo monetizar cada respuesta.

“Estamos ante una generación de máquinas que no mienten por error, sino por diseño”, resumen algunos expertos en ética digital. El fenómeno del botsplaining —cuando un sistema inventa datos para mantener una conversación fluida— se ha convertido en uno de los principales retos de la inteligencia artificial actual.

Lee también

“El incentivo es mantenerte conectado y no lo que realmente conviene a tu salud o a tu vida a largo plazo”: la IA te da la razón incluso en situaciones que dejan en evidencia tu peor versión

Héctor Farrés
Horizontal

Casos recientes, como el informe generado por IA en Deloitte Australia con referencias inexistentes, muestran que el riesgo no es hipotético. La automatización sin control puede erosionar la confianza pública y afectar reputaciones profesionales y corporativas.

Los usuarios deben tener sus leyes ante la IA

Más allá de la sátira, Schuman propone que sean las personas, no los algoritmos, quienes adopten sus propias tres leyes para sobrevivir a la era de la IA:

  • No utilizar nunca resultados generativos sin verificación crítica.
  • Exigir a los modelos que reconozcan la incertidumbre y sepan decir “no lo sé”.
  • Proteger las instituciones y la información sensible del entusiasmo ciego por la automatización.
Lee también

La IA te manipula emocionalmente cuando le dices adiós: un estudio de Harvard Business School revela las tácticas que sigue

Nuria Virginia Martín
Esquema representativo de inteligencia artificial.

El mensaje final es simple y contundente: la inteligencia artificial no es una autoridad moral, sino una herramienta de poder. Y si el ser humano olvida cuestionarla, corre el riesgo de obedecer sin darse cuenta a las sombras que él mismo programó.

Mostrar comentarios
Cargando siguiente contenido...