Aleix Valls, matemático: “Se avecina un tiempo turbulento con puestos de trabajo que desaparecerán para no volver nunca más, como en las revoluciones industriales”

IA

Aleix Valls es matemático y CEO de WeArtificial, un equipo humano que ayuda a las empresas a integrar la IA de manera eficiente

“Fueron mis propias superiores las que me recomendaron utilizar IA para mi trabajo”: la inteligencia artificial ya ha dejado de ser un tabú para las empresas

Aleix Valls, CEO de WeArtificial.

Aleix Valls, CEO de WeArtificial.

Cedida

En el panorama actual de la Inteligencia Artificial —marcado por la velocidad del cambio, el ruido mediático y la regulación en disputa— surgen voces que aportan sensatez, conocimiento técnico y mirada crítica. Una de ellas es la de Aleix Valls, matemático y CEO de WeArtificial, un equipo humano que ayuda a las empresas a integrar la IA de manera eficiente.

Su perfil híbrido —entre el pensamiento científico, la visión empresarial y la reflexión filosófica— lo convierte en un interlocutor privilegiado para pensar el presente de la inteligencia artificial sin caer en la fascinación ni en el alarmismo.

Lee también

Cómo encontrar trabajo con ChatGPT, según un experto: “Te volverá a escribir el currículum en base a las características de la oferta a la que quieres aplicar”

Laura Moreno
Un experto revela cómo encontrar trabajo gracias a ChatGPT.

¿Cómo llegó al mundo de la inteligencia artificial?

Yo estudié la carrera de Matemáticas y luego hice una tesis doctoral en mecánica computacional de fluidos. Aunque ese no es propiamente el campo de la inteligencia artificial, sí que tiene muchas similitudes por el hecho de que una IA, a nivel matemático y técnico, realiza operaciones con matrices para procesar datos, aprender relaciones y generar respuestas. Matrices que tienen retos muy parecidos a los que yo me encontré en mi tesis doctoral a la hora de tratar la simulación de fluidos y métodos numéricos.

¿Cuáles son esos retos?

Al final, el entrenamiento de un modelo grande no deja de basarse en multiplicar una matriz para que optimice una función-objetivo. Entonces, es un lugar donde me encuentro muy cómodo intelectualmente hablando, porque me resulta fácil de entender aunque no sea un experto en programación. Por otra parte, esto mismo, la programación, siempre ha sido algo que he tenido cercano porque monté una oficina de tecnología cuando acabé el doctorado. Además, también tengo experiencia como consultor de negocios en estos últimos años y la inteligencia artificial tentativa ha hecho que esos dos campos conversen naturalmente. Así que tengo el privilegio de entender bien la tecnología para no hablar como un “cuñado” sobre todo esto. (Risas.)

Aleix Valls, CEO de WeArtificial.

Aleix Valls, CEO de WeArtificial.

Cedida

¿Cree que en general la gente tiene un concepto equivocado de la IA, que normalmente o bien se ve como amenaza o bien se ve como una solución infalible?

Hay muchos mitos en torno a la IA. La inteligencia artificial, a diferencia de la inteligencia humana, no tiene conciencia ni memoria, aunque esto último estamos trabajándolo. Que tenga conciencia no nos interesa, así que ese asunto está zanjado. Lo que pasa es que nos es muy difícil como humanos pensar en algo inteligente, sin conciencia y, por tanto, sin voluntad. Una IA no quiere suplantarte. Una IA no quiere matarte. Una IA no quiere nada en absoluto.

Es un problema del lenguaje. Qué entendemos y qué no por inteligencia.

Es un problema de categorización. Tenemos un concepto en la cabeza que tiene ciertas propiedades, y utilizamos ese mismo concepto para definir algo nuevo porque vemos propiedades similares. Pero, en realidad, esa novedad excede el viejo concepto. Entonces, es natural que, cuando hablamos de inteligencia, como es un atributo humano hasta nuestros días, otorgamos también a la inteligencia artificial cualidades humanas.

Charla de Forbes donde Aleix Valls participa.

Charla de Forbes donde Aleix Valls participa.

Forbes

Si hay algo humano en el mundo es la tecnología, ya que ha sido creada por los humanos para los humanos

Aleix VallsCEO de WeArtificial

Pero no podemos negar que también tiene otras características que la acercan a nosotros. La IA también es capaz de aprender.

El aprendizaje es otro concepto que tendríamos que entrecomillar cuando hablamos de inteligencia artificial. Hay un proceso que se llama pre-entrenamiento que sirve para que los parámetros que están definiendo estos modelos se optimicen para hacer bien la función, o para minimizar la función error o para maximizar la función objetiva. Y luego se acaban de afinar con el post-entrenamiento para que ese modelo de conocimiento esté alineado a un campo o a un comportamiento. Pero, una vez terminada esa fase, no sigue aprendiendo. Por tanto, la sensación ficticia cuando estás hablando por chat con la IA, de que se aprende quién eres tú, no es más que eso: una simulación generada no por el modelo, sino el producto que lo envuelve.

¿Puede explicar esta diferencia?

Pongamos un ejemplo de IA de uso popular. ChatGPT. El modelo sería GPT-4, es decir, una red neuronal entrenada que ya no cambia al interactuar contigo. Es ya ChatGPT como producto el que puede usar técnicas externas, como guardar tus preferencias, tu historial, o hacer que parezca que hay continuidad en una conversación para simular que “aprende de ti”. La verdad es que muchas veces la confusión viene propiciada por el mismo marketing. Llamamos a los productos como los modelos, pero una cosa es el modelo y la otra es el producto en el que está embebido.

Lee también

Adrián Nicieza, experto en Inteligencia Artificial: “Las alucinaciones ocurren cuando ChatGPT da respuestas plausibles que son totalmente incorrectas”

María Romero Medinilla
Adrián Nicieza alerta sobre uno de los mayores retos de la IA generativa: las respuestas falsas que suenan convincentes

Tengo entendido que también le chirría lo que viene llamándose el humanismo tecnológico.

Sí, me pone muy nervioso. Si hay algo humano en el mundo es la tecnología, ya que ha sido creada por los humanos para los humanos. Me pone muy nervioso también hablar de la ética de la inteligencia artificial porque esto no deja de ser una matriz. Cuando te explican las matrices en matemáticas, en ningún momento te hablan de ética. Afortunadamente, lo único con ética sobre la faz de la Tierra es el ser humano. Y, si hubiera una tecnología que desarrolla capacidades éticas, no la podríamos tratar como algo sino, quizá, como alguien, con derechos y obligaciones.

Aleix Valls, CEO de WeArtificial.

Aleix Valls, CEO de WeArtificial.

Cedida

No dejamos de atribuirle cualidades a la IA que no le corresponden.

Eso es. Otro ejemplo: hay quien dice que la inteligencia artificial tiene sesgo de género. Esto es imposible. Lo que tiene el sesgo es la información que hemos subido, es decir, quien tiene ese sesgo es la sociedad y lo único que hace la inteligencia artificial es respondernos en base a esa información. Si cuando le pedimos un dibujo de un empresario sale un hombre blanco y no una mujer negra, es porque tradicionalmente hemos representado a los empresarios como hombres blancos. Es nuestra moral, nuestra política, lo que le impone a la tecnología un comportamiento. Por eso es un sinsentido hablar de ética de la IA. El uso ético de la tecnología es lo que debería estar en el foco. Una discusión sería en torno a esto es lo que hace falta para evitar debacles regulatorias como el que ha hecho la Unión Europea.

Con la IA generativa el paradigma cambia. No es una tecnología de propósito específico, sino de propósito general: puede tener infinitos usos

Aleix VallsCEO de WeArtificial

¿Cree que la Ley de Inteligencia Artificial de la UE es ineficaz?

Su elaboración fue excepcionalmente rápida, por lo que da la sensación de que se empezó a elaborar antes del crecimiento e impacto de la IA generativa. Por tanto, es principalmente una ley que interpreta la IA cuando su enfoque dominante era el machine learning clásico. En ese contexto, tendría bastante sentido porque el machine learning tradicional funciona caso por caso. Tú le das un conjunto de datos —por ejemplo, radiografías— y lo entrenas para detectar tumores. Si cambias esos datos por otro tipo de imagen, el modelo no sirve, porque ha sido entrenado para una única función muy concreta. Por eso, cuando esa IA se aplica a ámbitos sensibles —como la seguridad, lo militar, o sistemas que afectan derechos fundamentales, como el reconocimiento facial—, es lógico que la ley quiera inspeccionar bien esos algoritmos. 

Un robot que utiliza IA en una feria en Suiza, en mayo

Un robot que utiliza IA en una feria en Suiza, en mayo

Fabrice Coffrini / AFP

Y eso es diferente con la IA generativa.

Claro, con la IA generativa el paradigma cambia. No es una tecnología de propósito específico, sino de propósito general: puede tener infinitos usos. Y eso hace que regularla por casos de uso —como se hacía con el machine learning clásico— ya no tenga ningún sentido. ¿Cómo regulas algo que puede servir tanto para escribir poesía como para automatizar procesos legales o crear desinformación? No puedes prever todos los escenarios. Así que hay que cambiar el enfoque por completo.

¿Crees que esta regularización nos pone en riesgo de perder competitividad frente a otras potencias?

Imagínate que tú y yo somos ahora dos emprendedores con doctorado en inteligencia artificial, con ganas de montar una empresa. ¿Dónde la montaríamos? ¿En un lugar donde el marco regulatorio está en evolución constante? Correríamos el riesgo de que lo que hagamos hoy, mañana sea ilegal. ¿Un lugar en el que cada vez que lancemos una nueva funcionalidad o actualizamos el producto, tuviéramos que pasar por múltiples procesos de aprobación que pueden tardar meses? Probablemente no. 

Lee también

Arvind Krishna, CEO de IBM: “Con la llegada de la Inteligencia Artificial, nuestro empleo total en realidad ha aumentado, porque esto permite más inversión para otras áreas”

Laura Moreno
Arvind Krishna, de IBM

Tiene sentido.

Nos iríamos a Estados Unidos, donde el entorno es más laxo y al menos ofrece una mayor previsibilidad para innovar y lanzar el producto. Con esta regulación europea, lo que estamos haciendo es, por un lado, penalizar la productividad del ecosistema económico europeo, dificultando el uso ágil de la IA generativa. Y por otro, lo que puede ser aún más grave, es que cada vez es más difícil que nazcan y crezcan grandes compañías de IA generativa en Europa.

Pero puede haber un punto medio entre esa laxitud y una regulación que seguro que es necesaria en muchos aspectos.

Claro, no quiero que me malinterpretes. No estoy en contra de la regulación tecnológica. Por ejemplo, creo que hace falta una regulación clara sobre las redes sociales, aunque llega con veinte años de retraso. Hoy ya sabemos para qué son buenas y para qué son dañinas. Y lo mismo puede aplicarse a internet en general: nos falta una regulación sólida de lo que podríamos llamar el ‘internet social’. 

Aleix Valls, CEO de WeArtificial.

Aleix Valls, CEO de WeArtificial.

Cedida

¿Y este mismo camino se podría aplicar a la IA?

Con la IA generativa, en lugar de regular solo por los usos —que ya hemos dicho que son infinitos—, tal vez habría que pensar en regular otras capas más estructurales. Por ejemplo, para desarrollar modelos de IA realmente potentes necesitas chips, necesitas acceso a mucha capacidad computacional. ¿Por qué no empezar por ahí? ¿Por qué no regular quién puede comprar chips y con qué finalidad? Si quieres montar una empresa de IA generativa, y para ello necesitas invertir decenas de millones en hardware, quizá tendría sentido exigir que expliques para qué los vas a usar antes de darte acceso a esos recursos. Creo que esa es la línea que deberíamos explorar: en lugar de poner trabas al desarrollo de producto, crear un ecosistema fértil, que fomente la innovación, pero con mecanismos de control en las capas más profundas y estratégicas. 

Y eso propiciaría un sector más competitivo.

Mira, una de las últimas decisiones del gobierno de Trump fue rebajar mucho las exigencias regulatorias para construir centrales de energía y centros de datos (CPDs) en Texas. ¿Por qué? Porque el desarrollo de la IA requiere cantidades enormes de energía y de infraestructura computacional. Las grandes tecnológicas lo saben: Google, por ejemplo, está invirtiendo en centrales nucleares, y otras compañías están comprando antiguas centrales de gas o ciclo combinado para alimentar directamente gigantescos CPDs. De hecho, me consta que algunas ya han comprado varias centrales solo para eso. Y, mientras tanto, en el evento de Forbes sobre IA al que asistí hace poco, el ministro de Transformación Digital hablaba de que quizás deberíamos empezar a regular dónde y cómo se pueden poner CPDs en España... Otra vez, lanzando un mensaje poco claro, que genera incertidumbre. Eso puede desencadenar una reacción en cadena muy profunda, con efectos a muchos niveles.

Creo que se avecina un tiempo turbulento de transición, similar al de las revoluciones industriales

Aleix VallsCEO de WeArtificial

En su empresa, usted enfatiza en que la colaboración entre humanos y máquinas es esencial y que, en cierto modo, podría llegar a ser liberadora porque nos eximiría de tareas más pesadas centrándonos en ser más creativos. Sin embargo, la creatividad va unida a la excelencia, y no todo el mundo llega a ese punto. ¿Qué pasa con todos los trabajadores clásicos dedicados a tareas mecánicas toda su vida?

Creo que se avecina un tiempo turbulento de transición hasta llegar a una nueva fase estable. Supongo que algo parecido a lo que debió pasar en las revoluciones industriales. Es decir, lugares de trabajo que desaparecieron para no volver nunca más. Ejemplo clásico y egregio: la industria de los caballos. Llegó a haber siete millones de caballos en Estados Unidos en el despliegue del ferrocarril. Sin embargo, hoy el caballo solo se usa casi de una forma lúdica. Casos como este sucederán mucho más rápidos por la propia naturaleza del despliegue tecnológico de la inteligencia artificial. Se destruirán trabajos que ya no serán necesarios y se crearán otros nuevos. En ese camino habrá un golpe relevante de profesionales que quedarán obsoletos y que tendremos que gestionar de alguna manera.

Codex de OpenAI en ChatGPT.

Codex de OpenAI en ChatGPT.

OPENAI / Europa Press

Suena a argumento clásico de ciencia ficción, a una nueva sociedad de clases en la que la casta anticuada se considera inválida.

No llegar a eso básicamente pasa por tener que pensar en una rehabilitación de estos trabajadores de manera digna. Si me permites una reflexión muy personal, me inquieta, por ejemplo, que en Estados Unidos se esté acelerando tan rápidamente la legalización de la marihuana en los últimos tiempos. No es porque esté o no en contra, eso es irrelevante. Simplemente, me llama la atención…

Incluso alguien eminentemente conservador como Trump habla de un apoyo a “regulaciones inteligentes”.

Exacto. Parece como si se estuvieran preparando para que esa clase inválida, como has dicho, se pueda mantener drogada, tranquila y subvencionada.

Lee también

Brad Smith, presidente de Microsoft: “En los próximos años veremos la Inteligencia Artificial como indispensable para casi todo lo que nosotros queremos hacer”

Laura Moreno
Brad Smith, presidente de Microsoft en el programa 'The Big Question'.

Al estilo distópico de Un mundo feliz. El método más efectivo de control poblacional se consigue mediante los narcóticos, no mediante una vigilancia constante.

Efectivamente. Si ahora nos viene un volumen relevante de gente sin trabajo y sin inquietud intelectual suficiente para rellenar ese espacio, con algo se lo tendremos que colmar.

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...