Sam Altman, director ejecutivo de OpenAI, ha compartido públicamente los a su modo de ver, son los riesgos reales que entraña el desarrollo de la inteligencia artificial.
Señalando tres escenarios que, en su opinión, podrían tener consecuencias graves para la humanidad, reconoció que el avance de estas tecnologías es tan veloz que el mundo aún no comprende la magnitud de lo que está en juego.
“El escenario que más miedo me da es que la IA esté tan arraigada en la sociedad que no la entendamos y que, incluso sin maldad, tomemos una dirección rara”, expresó. El primero de los peligros que señaló Altman se refiere a un posible uso malicioso de la IA por parte de un actor individual antes de que exista una tecnología equivalente que pueda contrarrestarlo.
“Un adversario de Estados Unidos podría usar esta superinteligencia para diseñar un arma biológica, tumbar la red eléctrica o hackear el sistema financiero”, alertó.
">
El segundo riesgo, explicó, es el conocido como “pérdida de control”, una hipótesis más cercana a la ciencia ficción, pero no por ello menos relevante. En este escenario, la inteligencia artificial toma decisiones autónomas y resiste ser desconectada. “La IA dice: ‘Oh, en realidad no quiero que me apagues. Me temo que no puedo permitir eso’”, ejemplificó Altman.

La IA está integrada en todos los aspectos de nuestra convivencia
El tercer y último escenario es, a su juicio, el más inquietante: que la IA, sin intención maliciosa ni voluntad propia, termine moldeando la sociedad desde dentro, de forma imperceptible y fuera de nuestro control. “Se vuelven tan integrados en la sociedad, tan mucho más inteligentes que nosotros, que ya no podemos entender realmente lo que están haciendo”, señaló.
“Imagina que el presidente de Estados Unidos no pueda tomar decisiones mejores que las que sugiere ChatGPT-7. Eso significaría que hemos transferido el proceso de toma de decisiones a algo que no comprendemos del todo” ejemplificó Altman.