IA

Stuart Russell, catedrático de la UC Berkeley y experto en IA, sobre el avance de las máquinas: “Me horroriza la falta de atención a la seguridad”

El futuro

El docente de Ingeniería manifiesta su preocupación ante la irresponsabilidad y veloicidad con la que avanza el desarrollo tecnológico

El profesor Stuart Russell, reconocido experto mundial en IA y Profesor de Ciencias de la Computación en UC Berkeley.

El profesor Stuart Russell, reconocido experto mundial en IA y Profesor de Ciencias de la Computación en UC Berkeley.

The Diary Of A CEO (Captura)

“Podemos construir máquinas más inteligentes que nosotros. Sin embargo, decir que estoy preocupado es un eufemismo; de hecho, me horroriza la falta de seguridad”. Así de tajante se muestra Stuart Russell, profesor en la Universidad de California en Berkeley y una figura preeminente en la investigación sobre inteligencia artificial (IA).

El catedrático en Ingeniería, famoso por su defensa de la seguridad de la IA, dirigiendo el Centro para la IA compatible con los humanos, lleva años advirtiendo sobre los riesgos existenciales y morales, haciendo hincapié en el desarrollo beneficioso de la IA.

Los directores ejecutivos de tecnología son muy conscientes de los riesgos de la IA y el peligro de extinción de la raza humana

El informático es uno de los últimos invitados de Steven Bartlett en su podcast, Diary of a CEO, donde se reafirma en su preocupación sobre la posibilidad de que se puedan construir máquinas más inteligentes que nosotros, pero que también actúen siempre en nuestro beneficio y mejor interés.

”Ese es el truco, ¿verdad?”, pregunta el ingeniero al anfitrión del podcast. “¿Podemos crear sistemas de IA cuyo único propósito sea promover los intereses humanos? Creo que la respuesta es sí”, afirma, compartiendo que es en eso precisamente en lo que ha estado trabajando hasta ahora.

El profesor Stuart Russell ocupa la Cátedra Smith-Zadeh en Ingeniería y dirige el Center for Human-Compatible AI en la UC Berkeley.
El profesor Stuart Russell ocupa la Cátedra Smith-Zadeh en Ingeniería y dirige el Center for Human-Compatible AI en la UC Berkeley.The Diary Of A CEO (Captura)

El científico explica que se dio cuenta de que un mayor progreso en las capacidades de la IA podría ser un error. “Si creábamos una inteligencia sobrehumana real, sería potencialmente una catástrofe”, asegura. Por ello, cambió su enfoque: en lugar de desarrollar su inteligencia, se centró en su seguridad.

”Me horroriza la falta de atención a la seguridad”, insiste. El informático pone una situación de ejemplo en la que se decide construir una central nuclear en un barrio y los ingenieros no han prestado atención a las posibles medidas a tomar en el caso de una explosión accidental. “Sacarías a esa gente lo antes posible de ahí”.

Russell: “La IAG podría reemplazar a los humanos en 2030, a no ser que intervenga una guerra nuclear o nos abstengamos de hacerlo”

Russell insiste en que no hace más que leer las fechas proyectadas de desarrollo de la Inteligencia Artificial General (IAG) -posiblemente autónomos y con valores no alineados precisamente con valores e intereses humanos- y no puede sino horrorizarse. Para mitigar estos riesgos, la comunidad investigadora de la IA debe participar activamente en la investigación sobre seguridad, colaborar en la elaboración de directrices éticas y promover la transparencia en el desarrollo. Como muestra un reciente estudio publicado en la revistaa especializada AI & Society (Faroldi, 2025), la regulación debe centrarse en los agentes, no en los productos, como lo hace la versión final de la Ley de IA de la UE.

El profesor Stuart Russell O.B.E. es un reconocido experto mundial en IA y Profesor de Ciencias de la Computación en UC Berkeley.
El profesor Stuart Russell O.B.E. Es un reconocido experto mundial en IA y Profesor de Ciencias de la Computación en UC Berkeley.The Diary Of A CEO (Captura)

A medida que la IA se vuelve más compleja y menos interpretable, se pierde “transparencia”: no siempre podemos entender por qué toma ciertas decisiones. Esto alimenta desconfianza, sobre todo en contextos sensibles. Es precisamente en esto sobre lo que llama la atención el informático.

“Fíjate que esa gente también dice que puede haber un 25% de extinción”, comenta. “Elon Musk apunta a un 30%. Simon Altman dice que la IAG es la mayor amenaza y riesgo para la existencia humana”.

Russell: “Es posible crear sistemas súper inteligentes, pero hay que tener una noción diferente de lo que queremos construir”

El experto lo tiene claro: las grandes tecnológicas y desarrolladores “están jugando a la ruleta rusa con todos los seres humanos de la Tierra sin nuestro permiso”. Estos riesgos sobre la privacidad y la protección de datos, pues muchas IA requieren grandes cantidades de información personal o sensible. Su mal uso puede vulnerar derechos fundamentales como el derecho a la intimidad (Desafíos ético-jurídicos en el uso de Inteligencia Artificial para el tratamiento masivo de datos biométricos. Cuadrado Gamarra, 2024, Universidad de Deusto). 

Russell va más allá: “Entran en nuestras casas.  ¿Nos lo preguntaron? No. ¿Por qué el gobierno les permite hacer esto? Porque les dan cheques de 50.000 millones de dólares. “Creo que, con todo eso, decir 'problemas ocultos' es quedarse corto”, reitera el experto. “Horrorizado. Estoy dedicando mi vida a intentar desviar este curso de la historia hacia uno diferente”.

Etiquetas