Demis Hassabis, CEO de Google DeepMind: “Me preocupa que los malos actores, ya sean individuos o naciones rebeldes, reutilicen la inteligencia artificial con fines perjudiciales”
IA
En plena investigación para construir la inteligencia artificial general (IAG), explica cuál es su visión acerca de este desarrollo tecnológico
Demis Hassabis, director ejecutivo de Google DeepMind: “Algunos de los mayores problemas que enfrentamos hoy como sociedad, ya sean climáticos o de enfermedades, se verán solucionados con soluciones de IA dentro de 10 años”
Demis Hassabis CEO de Google DeepMind
Si hay una persona destacada en la revolución de la inteligencia artificial, ese es Demis Hassabis. El CEO de Google DeepMind y ganador del Premio Nobel en 2024 es una de las voces más influyentes en este desarrollo tecnológico.
DeepMind es la célula encargada del desarrollo de inteligencia artificial de Google y para comentar su visión sobre el el presente y futuro de la inteligencia artificial, atendió a WIRED en la sede de Google en Nueva York.
En dicha charla, el londinense valoró la situación en la que se encuentra la IAG, cómo afectará a ciertos puestos de trabajo y las inquietudes que le generan.
Researcher John Jumper, left, and Demis Hassabis, CEO of DeepMind Technologies, the AI division behind Gemini, speak to Associated Press at the Google DeepMind offices in London, Wednesday, Oct. 9, 2024 after being awarded with the Nobel Prize in Chemistry.(AP Photo/Alastair Grant)
“Hay un debate sobre las definiciones de IAG, pero siempre hemos pensado en ella como un sistema capaz de mostrar todas las capacidades cognitivas que tenemos los humanos”, comienza explicando a grandes rasgos.
”¿Podemos asegurarnos de que las barreras que la rodean son seguras y no pueden ser burladas?”
Uno de los puntos más interesantes es cuando se detiene a analizar las consecuencias negativas de la IA. “Hay al menos dos riesgos que me preocupan mucho. Uno es que los malos actores, ya sean individuos o naciones rebeldes, reutilicen la inteligencia artificial con fines perjudiciales”, cuenta.
“El segundo es el riesgo técnico de la propia IA. A medida que la inteligencia artificial se hace más poderosa y autónoma, ¿podemos asegurarnos de que las barreras que la rodean son seguras y no pueden ser burladas?”, se sincera.