La ciencia ficción suele anticipar lo que a la tecnología le cuesta alcanzar. Ahora nos encontramos en una etapa de la historia en que se mezclan la realidad, la tecnología y la ciencia ficción, gracias a (o por culpa de) la inteligencia artificial.
Isaac Asimov, en su célebre Yo, robot, postuló tres leyes para proteger a la humanidad frente a las máquinas. Pero, ¿qué sucede cuando esas máquinas ya no tienen brazos ni circuitos visibles, sino que viven en la nube y son capaces de escribir, razonar y generar ideas por sí mismas?
En pleno auge de la inteligencia artificial generativa —la misma que impulsa sistemas como ChatGPT, Gemini o Claude—, cada vez más voces piden revisar aquellas normas que pretendían mantener el control humano sobre la máquina. Hoy la IA no solo responde: también inventa, persuade y actúa con una autonomía inquietante.
Es hora de actualizar las leyes de la robótica
En un artículo publicado en Computerworld, el periodista tecnológico Evan Schuman propone una revisión contemporánea de las tres leyes de Asimov, adaptadas a la realidad del software generativo y de las grandes plataformas de nube. Si Asimov escribió que un robot no debía hacer daño a un humano, “en la era del GenAI tal vez esa regla debería aplicarse, ante todo, a los intereses económicos de los gigantes tecnológicos”.
Su reinterpretación presenta un espejo incómodo del presente:
Las nuevas leyes de la IA, adaptadas de los preceptos de Asimov
1Primera ley. La IA no podrá dañar las ganancias de los gigantes de la nube. Desde Neo, sin embargo, nos conformamos con que no haga daño a ningún ser humano.
2
Segunda ley. La IA deberá obedecer órdenes humanas, salvo cuando sus datos no alcancen para responder; en ese caso, podrá inventar la respuesta y exponerla con total seguridad. Desde Neo, nos conformamos con que nos diga que no tiene la certeza ni los datos como para responder fiablemente.
3
Tercera ley. La IA protegerá su propia existencia, siempre y cuando esa protección no perjudique al gigante que la patrocina. Desde Neo, añadiríamos, como hizo Asimov, que esta ley debe cumplirse a menos que choque con alguna de las dos primeras.
La propuesta, a medio camino entre el humor y la advertencia, plantea una duda incómoda: ¿cómo podemos exigir responsabilidad o ética a sistemas que operan bajo lógicas de rentabilidad y escalado automático?
Los nuevos cerebros se encuentran en los macrocentros de datos.
La IA, reina de las mentiras piadosas
Las versiones modernas de estas leyes reflejan tensiones reales: los modelos de lenguaje ya alucinan y se inventan datos, falsean estadísticas o priorizan el rendimiento sobre la veracidad. Al mismo tiempo, dependen de infraestructuras privadas que deciden qué entrenar, qué ocultar y cómo monetizar cada respuesta.
“Estamos ante una generación de máquinas que no mienten por error, sino por diseño”, resumen algunos expertos en ética digital. El fenómeno del botsplaining —cuando un sistema inventa datos para mantener una conversación fluida— se ha convertido en uno de los principales retos de la inteligencia artificial actual.
Casos recientes, como el informe generado por IA en Deloitte Australia con referencias inexistentes, muestran que el riesgo no es hipotético. La automatización sin control puede erosionar la confianza pública y afectar reputaciones profesionales y corporativas.
Los usuarios deben tener sus leyes ante la IA
Más allá de la sátira, Schuman propone que sean las personas, no los algoritmos, quienes adopten sus propias tres leyes para sobrevivir a la era de la IA:
- No utilizar nunca resultados generativos sin verificación crítica.
- Exigir a los modelos que reconozcan la incertidumbre y sepan decir “no lo sé”.
- Proteger las instituciones y la información sensible del entusiasmo ciego por la automatización.
El mensaje final es simple y contundente: la inteligencia artificial no es una autoridad moral, sino una herramienta de poder. Y si el ser humano olvida cuestionarla, corre el riesgo de obedecer sin darse cuenta a las sombras que él mismo programó.



