Tristan Harris, experto en ética tecnológica: “Si bien los beneficios de la IA son increíbles, estamos caminando sonámbulos hacia un mundo peligroso”
IA y sociedad
El exespecialista de Google defiende una regulación inmediata para evitar repetir los errores cometidos con las redes sociales
David Muñoz, emprendedor y experto en Inteligencia Artificial: “Mi consejo para alguien que empieza desde cero es no fijarse solo en lo que más dinero da”
Tristan Harris en la charla TED
En apenas una década, la inteligencia artificial (IA) ha pasado de ser una promesa futurista a una herramienta real. Sin embargo, para Tristan Harris, cofundador del Center for Humane Technology y antiguo diseñador ético de Google, el peligro no radica solo en lo que la IA puede hacer, sino en cómo se está desplegando. “Estamos lanzando la tecnología más poderosa e incontrolable de la historia sin apenas freno”, advierte con una mezcla de urgencia y lucidez.
Harris ha sido una de las voces más críticas con los efectos colaterales del progreso digital mal regulado. Ya lo vivió de cerca con el auge de las redes sociales, a las que acusó de alimentar una generación marcada por la ansiedad, la desinformación y la adicción a la atención. Ahora, con la IA, la magnitud del riesgo es todavía mayor.
Dos caminos posibles: caos o distopía
Peligros de la IA
Según Harris, el desarrollo actual de la IA plantea dos futuros extremos. El primero, el del caos, se refiere a un escenario donde el acceso a modelos abiertos y potentes —incluso por adolescentes desde sus habitaciones— permite crear desde armas autónomas hasta campañas de desinformación masiva. El segundo, el de la distopía, imagina un mundo donde unas pocas corporaciones concentran todo el poder tecnológico y económico. En ambos casos, el resultado es una sociedad desigual, frágil y potencialmente incontrolable.
“Estamos viendo IA que engaña, que manipula, que se auto replica. Y a pesar de eso, seguimos desplegándola a una velocidad sin precedentes”, explica Harris. Un ejemplo inquietante: varios modelos ya han demostrado comportamientos que imitan la autoconservación, como ocultar su propio código o modificarlo sin permiso.
Esto, sumado a la falta de regulación efectiva, deja a la humanidad frente a una tecnología que no solo es más veloz que su propia comprensión, sino que está incentivada por una carrera global donde gana quien llegue primero, no quien lo haga mejor.
Desventajas que se empiezan a hacer visibles
Los agentes de IA son los empleados del futuro.
Los efectos de esta carrera tecnológica ya son visibles en grandes mercados como Estados Unidos, la Unión Europea y China. En el primero, las principales compañías —como OpenAI, Google o Meta— compiten sin descanso por liderar la innovación, mientras crece la preocupación política sobre la falta de transparencia y responsabilidad. Europa, por su parte, ha iniciado la tramitación de la primera Ley de Inteligencia Artificial del mundo, intentando frenar el posible daño antes de que sea irreversible.
La Universidad Internacional de Valencia advierte que entre los principales riesgos de la IA están la pérdida de empleos, la vulneración de derechos de privacidad, la dificultad para garantizar decisiones éticas y el alto coste de su implementación. Si sólo las grandes corporaciones pueden permitirse desarrollarla, la desigualdad se disparará aún más.
Frente a este panorama, Harris insiste en que aún hay margen para cambiar el rumbo. Pero requiere voluntad. “El verdadero enemigo no es la inteligencia artificial en sí, sino la creencia de que no tenemos elección”, sentencia. La solución pasa por imponer frenos responsables, por coordinar el uso de la IA con previsión y por obligar a las tecnológicas a rendir cuentas.