Yoshua Bengio, uno de los padres de la Inteligencia Artificial: “Esto es como cultivar una planta, no puedes controlarla. Le proporcionas las condiciones adecuadas, crece y, aunque puedes guiarla, se vuelve más inteligente”

FUTURO DE LA IA

Los límites éticos en el uso de la inteligencia artificial siguen suscitando opiniones contradictorias entre los expertos tecnológicos

Doctor Manuel Sans Segarra: “Nuestro progreso será exponencial con la Inteligencia Artificial, aunque debe de algún modo regularse”

Uno de los padres de la IA alerta sobre los riesgos que tiene para la sociedad si no los mitigamos.

El padrino de la inteligencia artificial explica cuál cree que sería el modelo ideal de uso de esta tecnología. 

LinkedIn Yoshua Bengio

La incertidumbre acerca de qué nivel de implicación tendrá la inteligencia artificial en nuestro día a día sigue estando en el ojo del huracán. Tampoco hay un consenso generalizado sobre cuál debería ser el uso mayoritario que las empresas, instituciones y la sociedad en general hagan de la IA. Mientras algunos expertos indican el gran potencial de utilizar la IA para solucionar aspectos trascendentales, como la curación de enfermedades, otros se muestran más cautos.

Yoshua Bengio, considerado uno de los padres de la IA, ha vuelto a poner de manifiesto la necesidad de desarrollar una inteligencia artificial segura. Con este cometido en mente, ha impulsado Law Zero, una organización sin ánimo de lucro que aboga por un uso seguro y responsable de la IA. La revista Time se hace eco de la posición que mantiene Bengio con respecto a esta cuestión.

Inteligencia artificial: ¿entrenamiento o autonomía?

Una de las cuestiones clave que sobrevuela y que más división de opiniones suscita es hasta qué punto deberíamos otorgar autonomía total a la IA o no. En opinión de Bengio, “el enfoque actual para otorgarle autonomía a la IA es peligroso”. El padre de la IA hace un símil con el que pretende evidenciar por qué no considera que debamos otorgar total autonomía a la inteligencia artificial.

“Es como cultivar una planta, no la puedes controlar por completo. Le proporcionas las condiciones adecuadas, crece y se vuelve más inteligente. Lo que puedes intentar hacer es guiarla en varias direcciones”, comenta Bengio. Con este símil, el experto explica que las reglas de aprendizaje profundo en que se basa la IA para identificar patrones no nos permiten controlar por completo qué respuestas dará la IA.

Una de las preocupaciones que ha manifestado Bengio en este sentido es que esos sistemas, a base de prueba y error, aprenden comportamientos engañosos tratando de imitar a los humanos, lo que podría dar lugar a situaciones arriesgadas en las que dependamos completamente de la inteligencia artificial.

Lee también

La propuesta de Bengio: una IA más honesta

Con el fin de evitar que la IA desarrolle habilidades emocionalmente negativas, Yoshua Bengio apuesta por el impulso de lo que él mismo denomina “IA científica”. De hecho, es uno de los cientos de expertos, periodistas y responsables políticos que han firmado un acuerdo internacional de seguridad en la inteligencia artificial. El objetivo de este acuerdo es establecer unas directrices comunes que promuevan un uso responsable y ético de la inteligencia artificial en la sociedad.

Lo que defiende Yoshua Bengio es el uso de una IA “confiable y centrada en la comprensión y la veracidad, en lugar de perseguir sus propios objetivos o simplemente imitar el comportamiento humano”. Es decir, aboga por utilizar la inteligencia artificial como una herramienta avanzada que ayude a solucionar algunos de los problemas más importantes de nuestra sociedad, pero sin adquirir la autonomía suficiente como para solucionarlos por sí sola.

La posición de Bengio pone de manifiesto una cuestión sobre la que se sigue trabajando en nuevas normativas y regulaciones: los límites éticos en el uso de la inteligencia artificial. Y, dado el rápido avance de esta tecnología, todas las normativas que se definan en torno a ella deberían estar en constante revisión y actualización para garantizar un uso responsable de la misma. 

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...