José Ignacio Latorre, físico cuántico, sobre el mal uso de la IA: “Recordemos la metáfora del mago de Oz, alguien que parece que está haciendo magia por detrás”

Inteligencia Artificial

José Ignacio Latorre, físico cuántico.

José Ignacio Latorre, físico cuántico.

Vidas Ajenas Podcast (captura)

“Increíble”. Eso es lo que pensaron los afortunados que pudieron ver cara a cara a IRON, el robot humanoide que presentó la empresa china Xpeng Motors. Su aspecto era tan sorprendentemente realista que los técnicos tuvieron que abrirlo para demostrar que no había nadie dentro.

La inteligencia artificial está cambiando la forma en la que entendemos el presente, pero también la manera de trabajar en campos como la ciencia o la tecnología. Un asunto que ha generado un acalorado debate entre físicos, matemáticos e investigadores sobre hasta qué punto estas máquinas podrían cambiar radicalmente nuestra concepción del trabajo, del conocimiento e incluso de lo que significa ser humano.

Robots Iron, de XPeng, vestidos.

Robots Iron, de XPeng, vestidos.

José Ignacio Latorre, físico especializado en la rama de la cuántica, reconoce a Juan Insua, conductor del podcast Vidas ajenas, que tiene “miedo” a esta parte en concreto del futuro. “Tengo miedo al mal uso de la IA, al uso no ético, al uso vil”, reconoce. El científico admite que ese miedo le da que pensar en la posibilidad de que “exista una agenda detrás de ti”, donde “no importa la vida humana”.

El físico va más allá: “Ver a una inteligencia mucho más inteligente que yo, tomando esas responsabilidades… Pues me da un poquito de vértigo, me da miedo”, afirma, admitiendo incluso que le da miedo que “eduquen a nuestros niños”.

José Ignacio Latorre, físico cuántico.

José Ignacio Latorre, físico cuántico.

Vidas Ajenas Podcast (captura)

El científico continúa diciendo que le asusta que, además, le da miedo que solo “cierta capa de la sociedad tenga acceso a ella”, temiendo la previsible desigualdad. “La gestión de algo tan magnífico como es la inteligencia artificial se denoste, se destroce, se vilipendie, se vaya al traste… Me da miedo”, asegura.

Existen múltiples inquietudes concretas sobre los peligros del mal uso de estos sistemas por parte de la comunidad científica. Como señala Latorre, su opacidad, su impacto en sociedades y las implicaciones éticas son solo los primeros aspectos a tener en cuenta. Un estudio reciente de la Universidad de Cornell (He, 2023), advierte de que la expansión de IA en ciencia puede amplificar riesgos como la generación de sustancias peligrosas o la evasión de regulaciones, si no se establecen controles rigurosos.

¿Nos conformamos con la mera existencia de la IA?

José Ignacio Latorre también lamenta que haya personas que hablen y comenten sus problemas con la inteligencia artificial. El informe 'Así somos. El estado de la adolescencia en España', elaborado por Plan International, revela que los más jóvenes consultan dudas académicas o piden ayuda a la IA a la hora de hacer sus tareas escolares. El estudio está basado en una encuesta a más de 3.500 adolescentes y jóvenes de entre 12 y 21 años de toda España (2.500 chicas y 1.000 chicos).

Los adolescentes pueden ser vulnerables a indicaciones psicoterapéuticas no acreditadas ni contrastadas que les pueda dar la IA.

Los adolescentes pueden ser vulnerables a indicaciones psicoterapéuticas no acreditadas ni contrastadas que les pueda dar la IA.

IStockphoto / Carlos Gawronski

“Le preguntan si ese novio le conviene y yo recordaba la metáfora del Mago de Oz: alguien que parece que está detrás”, dice, añadiendo una capa de incertidumbre a la IA, que no es “mágica ni benigna por sí sola”, sino que su impacto dependerá tanto de su diseño como de cómo decidamos usarla.Si la inteligencia artificial no es inteligente del todo, pero lo parece, a los humanos nos bastará. Para muchas tareas”, explica.

Sin embargo, Latorre advierte que esto no significa que todo lo que está surgiendo debería ser inteligencia artificial. “Hay que definirla, porque llamar ‘inteligencia artificial’ a ciertas tareas como tomar notas o resumir… No todos los problemas requieren el mismo nivel de reflexión”, matiza.

José Ignacio Latorre, físico cuántico.

José Ignacio Latorre, físico cuántico.

Vidas Ajenas Podcast (captura)

Según un reciente informe de la OECD, muchos físicos, como Latorre, evitan incluso usar el término completo “IA”, porque la analogía con la inteligencia humana puede resultar engañosa. En su opinión, los algoritmos actuales son “simples” herramientas de ajuste de datos, no sujetos capaces de comprender el mundo como un ser humano.

Como señala el científico, muchas de las acciones que realizamos los seres humanos son “descabelladamente inteligentes”, por lo que “no es en absoluto impensable que van a ser sustituidas con toda certeza”, cuenta. Un miedo al futuro con este tipo de sistemas que también se relaciona con el temor existencial colectivo de la pérdida de relevancia del ser humano como agente creativo, decisor y conocedor.

Latorre explica que hay que tomar el proceso como algo paso a paso, como se ha vivido durante toda la historia. “Tenemos que enfrentarnos a esto con los ojos abiertos”, insiste Latorre. “Debemos de estar preparados para absorber una infinidad de cambios en nuestras vidas”.

Mostrar comentarios
Cargando siguiente contenido...