Geoffrey Hinton, uno de los padres fundadores de la IA: “Hay entre un 10 % y un 20 % de probabilidades de que nos elimine, pero eso es solo una intuición”
INTELIGENCIA ARTIFICIAL
El experto reflexiona sobre los riesgos y desafíos que pueden derivarse del avance de la inteligencia artificial

Geoffrey Hinton en una conferencia

Las advertencias sobre los riesgos del desarrollo acelerado de la inteligencia artificial no deben tomarse a la ligera. El avance veloz de estas tecnologías plantea desafíos inéditos en términos de control, ya que sistemas cada vez más complejos pueden operar de formas difíciles de prever.
Además, su impacto social podría ser profundo, afectando el empleo, la privacidad y la manera en que interactuamos con la información y entre nosotros. A esto se suma la preocupación por el posible uso indebido, desde la manipulación de datos hasta la aplicación de IA en contextos militares o de vigilancia masiva.

“Si fabricaras un virus muy contagioso, muy letal y muy lento, todo el mundo estaría infectado antes de darse cuenta de lo que estás pasando”
Geoffrey Hinton es un científico informático y psicólogo cognitivo británico-canadiense, reconocido como una de las figuras más influyentes en el desarrollo de la inteligencia artificial. Ha sido profesor en la Universidad de Toronto y colaborador de Google, y en 2018 recibió el Premio Turing por sus aportaciones fundamentales al campo. Durante los últimos años, ha ganado relevancia pública por advertir sobre los riesgos sociales y éticos del avance acelerado de la inteligencia artificial, especialmente en relación con su control, regulación y posible impacto en la sociedad.
En una entrevista para 'The Diary of a CEO', lanzó un mensaje de alerta dirigido a toda la humanidad: “Podrías tener una IA superinteligencia que decidiera deshacerse de las personas. La manera más fácil de hacerlo sería crear uno de esos virus peligrosos. Si fabricaras un virus muy contagioso, muy letal y muy lento, todo el mundo estaría infectado antes de darse cuenta de lo que estás pasando. Creo que si una superinteligencia quisiera terminar con nosotros, probablemente optaría por algo biológico que no le afectara a ella”, advierte.

El experto defiende que las inteligencias artificiales que está creando el ser humano tienen algo que las hace muy superiores al tipo de inteligencia biológica que tenemos nosotros: “Nunca hemos estado en una situación así anteriormente. Nunca hemos tenido que enfrentarnos a cosas más inteligentes que nosotros. A menudo digo que hay entre un 10% y un 20% de probabilidades de que nos elimine, pero eso es solo una intuición, basada en la idea de que seguimos creándolas y somos bastante ingeniosos” termina diciendo.
Varios expertos y líderes del sector tecnológico han advertido sobre los riesgos potenciales de un desarrollo descontrolado de la inteligencia artificial, especialmente si llegara a exceder o escaparse del control humano. Por ejemplo, Max Tegmark, físico e investigador en seguridad de IA, ha señalado que las empresas deberían evaluar de forma rigurosa las probabilidades de que sistemas altamente avanzados se vuelvan incontrolables y representen una amenaza existencial para la humanidad, proponiendo marcos comparables a la planificación de riesgos nucleares para anticipar estos peligro. Por su parte, figuras como Sam Altman (CEO de OpenAI) han reconocido el potencial transformador de la IA pero también han advertido sobre su mal uso y la necesidad de colaboración global para garantizar su despliegue seguro.
La advertencia de Hinton no busca generar alarmismo, sino subrayar la importancia de la anticipación, el control y la responsabilidad en el desarrollo de tecnologías cada vez más avanzadas. A medida que la innovación progresa, es fundamental prever posibles riesgos, establecer marcos éticos y normativos sólidos, y asegurarse de que la implementación de nuevas herramientas sea segura y beneficiosa para la sociedad. Solo así se puede aprovechar el potencial de la tecnología sin comprometer la seguridad ni los valores humanos.
