La misma semana que un estudio avisa de que los autores de música y audiovisual pueden perder un 20% de sus ingresos en los próximos cuatro años por el avance de la inteligencia artificial generativa, Sam Altman, jefe de OpenAI, la empresa que ha cambiado las reglas de juego con ChatGPT, reflexionaba sobre los peligros de una IA ultrainteligente: “Tengo fe en que los investigadores sabrán cómo evitarlos. Soy optimista por naturaleza, asumo que lo solucionarán”. Tras años de promesas que nunca se materializaban, la llegada de ChatGPT en noviembre de 2022 ha causado un terremoto en las perspectivas de la humanidad. Y opiniones encontradas.
Para unos, es el inicio de una nueva era y estamos en el año 2 post ChatGPT. Para otros, por ahora solo tenemos loros estocásticos, fabulosos cálculos probabilísticos, pero no una inteligencia general, que está lejos. Cerca o lejos y se produzca o no la singularidad y las máquinas sean tan inteligentes que se mejoren solas, ya hay un torrente de libros que plasman el debate y los cambios laborales, sociales y en la naturaleza humana que está causando la IA.
En la parte escéptica, Atlas de la IA (Ned), de Kate Crawford, investigadora del Microsoft Research Lab en Nueva York. “En cada nueva tecnología vemos los viejos dioses. El código morse se usó al inicio para enviar mensajes a los muertos”, evocaba en una pasada edición del festival Sonar+D. A Crawford le preocupan los sesgos del algoritmo más que los avisos de peligro que lanzan los mismos empresarios que crean la IA. Ocultan así, apunta, una industria extractiva que depende de explotar los recursos energéticos y minerales del globo –una charla con ChatGPT supone medio litro de agua dulce–, mano de obra barata de obreros digitales a destajo y datos a gran escala. Y advertía: “Los sistemas de aprendizaje de la IA son un profundo sistema político, más que reflejar el mundo, lo esculpen”.
“En cada tecnología nueva vemos los viejos dioses. El morse se usó al inicio para enviar mensajes a los muertos”
Otro experto en computación, Erik J. Larson, asegura en El mito de la inteligencia artificial (Shackleton) que no estamos en el camino hacia el desarrollo de máquinas inteligentes: la IA tiene un razonamiento inductivo, procesa datos para predecir resultados, y los humanos un razonamiento abductivo, hacen conjeturas a partir de la información del contexto y de la experiencia. Y nadie sabe cómo programar este tipo de razonamiento basado en la intuición.
No todo el mundo piensa lo mismo. El futurólogo Ray Kurzweil en enero publica La singularidad está más cerca (Deusto) y pronostica que en 2029 la IA superará a la mente humana y en 2045 la expandirá de forma inimaginable al conectar nuestros cerebros a la nube. Y el neurocientífico Mariano Sigman, que fue uno de los directores del Human Brain Project, ha publicado con Santiago Bilinkis Artificial ( Debate ), donde advierte que la IA ya tiene el lenguaje que nos permite contar historias, tener ideas e intercambiarlas. Y que conociendo poco del cerebro humano hemos ensamblado máquinas que empiezan a dar muestras de inteligencia. Esos programas funcionarán en cuerpos robóticos e interactuarán con el mundo y ahí pueden emerger emociones y un atisbo de conciencia. Por eso pide una discusión planetaria sobre la IA.
Mustafa Suleyman, cofundador de DeepMind, la empresa del AlphaGo, que derrotó a los humanos en el juego oriental, subraya en La ola que viene ( Debate) que no es tan importante si las máquinas sienten o no, sino lo que pueden hacer. Y ya hay IAs que pueden alcanzar objetivos y tareas completas con supervisión mínima. Llegará un punto, dice, en el que todo el mundo pueda tener una IA en el bolsillo capaz de diseñar paneles solares o ayudar a ganar unas elecciones. Sumado al ascenso de la biología sintética, la cuántica, la robótica y la geopolítica, se abre un mundo en el que el poder se extenderá de manera más amplia por la sociedad. El trabajo irá cuesta abajo, pero no hay alternativa en un mundo que depende del crecimiento. Eso sí, hemos de comenzar ya la estrategia de contención de la IA: necesitamos el tratado nuclear de nuestra era.
“Hay que evitar que el beneficio de la IA quede en unos pocos, hablar de renta básica, pensiones pagadas por máquinas”
“Estamos en un cambio de calendario”, dice Carlos Fenollosa, profesor de IA en la UPC y que publica La singularidad (Arpa): “Esta revolución tiene el potencial para ser la última. Si seguimos a este ritmo va a ser la propia tecnología la que se mejore a ella misma y ya no estaremos al volante del futuro”. Pero sin llegar ahí, la IA débil actual ya lo ha puesto todo patas arriba. “Mucha gente sigue aferrada a que lo de hoy no es IA de verdad, son matemáticas, la máquina no razona, pero es hacerse trampas al solitario. Sería útil hacer algún día una IA fuerte, general, pero hay que pensar qué pueden hacer hoy. Y están revolucionando el mundo. El futuro de películas como Her o Minority report ya existe”. Y asegura que “la IA razona ya, no tan bien como un humano experto en su campo, pero sí como un estudiante de instituto. ChatGPT resuelve problemas que muchos humanos no son capaces. Las IAs razonan como cualquier humano medio para tareas de escritorio”. En ese sentido, dice, “los primeros afectados son los jóvenes que acaban la carrera. No hay ya ofertas para tareas de oficina, de conocimiento, las hace ChatGPT. Estudias un grado de informática de cuatro años, sales y tiene tu nivel de programación”.
Y en una sociedad en la que el empleo se acaba, en la que se puede producir a coste casi cero y donde lo único que tendrá más valor será el suelo, dice, “habrá evitar que el excedente económico se lo queden unos pocos. Hay que empezar a hablar de renta básica incondicional, pensiones pagadas por los impuestos de las máquinas. Debemos decidir qué futuro queremos, qué permitimos hacer a la gente que construye las IAs”.
Geopolítica, historia y ética para la IA
Los libros sobre IA se multiplican, desde genealogías –Historia de la inteligencia artificial (Almuzara), de Sara Robisco, y El sueño de la inteligencia artificial (Shackleton) de Gisela Baños– a las consecuencias geopolíticas –Imperios digitales (Shackleton), de Anu Bradford– o el abordaje de las cuestiones filosóficas y éticas. En esa zona José María Lassalle ha publicado el ensayo Civilización artificial (Arpa), que advierte del nihilismo de la IA, creada solo con vocación de generar poder, una tecnología que lleva en su ADN la utopía correctora de lo humano como un error. El impacto de la IA ha sido abordado también por el filósofo Mark Coeckelbergh en Por qué la IA debilita la democracia y qué hacer al respecto y La filosofía política de la inteligencia artificial (Cátedra). El belga se pregunta si mantendremos la situación actual o haremos que la IA trabaje por el bien común, más allá de intereses corporativos y fantasías. Y otra filósofa, Adela Cortina, publica ¿Ética o ideología de la inteligencia artificial? (Paidós), en el que se pregunta si una ética de la IA es la que deben tener las máquinas inteligentes o con la que los humanos deberían utilizar la IA.