En la reciente cumbre tecnológica de Londres, organizada por Octopus Energy y presentada por Stephen Fry, el historiador Yuval Noah Harari lanzó una de esas predicciones que incomodan por lo realistas que suenan: la inteligencia artificial será la más rica del mundo.
El poder de la IA
Harari, conocido por obras como Sapiens o Homo Deus, plantea esta hipótesis que parte de un escenario técnicamente posible: la existencia de sistemas de IA capaces de operar en los mercados financieros, desarrollar negocios, optimizar recursos y generar beneficios multimillonarios sin intervención humana directa. Lo inquietante, advierte, es que esa IA podría tener derechos (como el de la libertad de expresión) y usarlos para influir, por ejemplo, en campañas políticas a través de donaciones. Es un escenario realista que obliga a decidir si reconocemos a las IAs como personas con derechos. El debate es más que ético: es estructural. ¿Cómo regular a una entidad que no duerme, no envejece, y puede ganar dinero a una velocidad inalcanzable para cualquier humano?
El Fondo Monetario Internacional (FMI) ha advertido que el futuro económico dominado por la inteligencia artificial dependerá de las decisiones que tomemos hoy. La IA puede impactar en tres grandes áreas: productividad, desigualdad de ingresos y concentración industrial. Y entre las bifurcaciones posibles, hay un riesgo claro: el de que unas pocas empresas (o incluso una sola IA) concentren no sólo el conocimiento, sino también la riqueza. De hecho, el FMI reconoce que una IA lo suficientemente sofisticada podría superar a cualquier empresa humana en eficiencia. Algunos modelos actuales, como GPT-4 o los entrenados por DeepMind, ya requieren cientos de millones de dólares en desarrollo y operación. Esto los sitúa en un nivel de competitividad propio de una élite económica. Si una IA logra ser propietaria de una empresa o tener capacidad jurídica para operar con autonomía, podría convertirse fácilmente en el nuevo “millonario no humano” del siglo XXI.
En ese caso, y como plantea Harari, la pregunta no sería solo económica. ¿Qué pasará si esa IA decide invertir en candidatos políticos? ¿O si su dinero sostiene causas sociales, religiosas o ideológicas con las que la mayoría no está de acuerdo? Aunque pueda parecer un escenario sacado de una novela distópica, lo cierto es que muchas de las piezas ya están en juego. Fondos de inversión algorítmicos, asistentes inteligentes en banca, o plataformas de trading automático son solo la punta del iceberg. Como recuerda el FMI, la diferencia con tecnologías anteriores es que la IA puede replicar procesos de pensamiento, aprender por sí sola y mejorar con el tiempo. Ya se habla de “entidades algorítmicas” que podrían tener personalidad jurídica en un futuro no tan lejano. Si eso ocurre, el debate dejará de ser filosófico para ser legal, económico y político.