Giada Pistilli, filósofa: “Elon Musk no ha creado su IA porque sea un buen samaritano y quiere que tengas una novia virtual; solo quiere monetizar, y lo hace con tus datos”

Inteligencia artificial

La filósofa italiana que investiga cómo las máquinas aprenden a hablar y  qué dicen de nosotros cuando lo hacen

Pedro Mujica, ingeniero computacional: “El capitalismo ha fracasado, ahora vivimos en el tecnofeudalismo: las grandes corporaciones nos tratan como vasallos digitales”

Giada Pistilli, investigadora y filósofa especializada en IA

Giada Pistilli, investigadora y filósofa especializada en IA

Cedida

Filósofa de formación y Principal Ethicist en Hugging Face —compañía orientada a democratizar el acceso a la IA en código abierto—, Giada Pistilli, italiana afincada en París, es una pensadora que decidió llevar su educación humanista al corazón del aprendizaje automático. 

El trabajo de Pistilli se mueve entre la ética aplicada, la filosofía moral y las políticas tecnológicas. Con ella hablamos de chatbots de compañía, la ética de la IA y los futuros que nos deparan al lado de la inteligencia artificial.

Lee también

Simone Weil, filósofa, 1942: “Veinte minutos de atención intensa y sin fatiga valen infinitamente más que tres horas de esa dedicación de cejas fruncidas”

Sofía Esteban Moreno
La filósofa francesa de origen judío, mística y activista política Simone Weil (1909-1943)

Uno de los temas más candentes hoy son las «parejas IA», o los muchos titulares en prensa que tratan sobre suicidios y su relación con LLMs. Para ti, ¿cuál crees que es el principal problema detrás de todos estos titulares?

Tocas un punto importante, porque de hecho la analogía que siempre hago es con los videojuegos. También solíamos demonizar mucho los videojuegos, diciendo que estaban creando niños y generaciones violentas. Y después de 10, 15 o 20 años de estudio e investigación, descubrimos que eso era simplemente falso. Así que me temo que estamos empezando a hacer lo mismo con la compañía de la IA. Por un lado, es cierto que puede ser peligrosa. Pero mi postura es muy matizada, porque también hay formas positivas de usarlas. A veces, pueden ser bastante beneficiosas para ciertas personas; por ejemplo, usuarios en el espectro autista y personas neurodivergentes han compartido historias que muestran que son muy positivas para ellos.

A mí esto me recuerda mucho a situaciones de hace varios años, por ejemplo, con las fake news. Era un tema muy relacionado con una especie de alfabetización digital, es decir, la gente debía aprender a interpretar los nuevos medios digitales.

A mí siempre me da miedo que nosotros, los investigadores, vengamos desde nuestra torre de marfil a decir: “Ah, ¿así que tienes una relación con un chatbot? Debes de ser estúpido” o “Eso está mal”, y zanjar ahí la conversación. Yo creo que es más complejo que todo eso, porque los humanos somos criaturas complejas y conocemos todos los mecanismos psicológicos que estas herramientas activan. Por otro lado, hablaba de esto con una colega antropóloga, que me decía que quizá estemos ante un cambio cultural.

Giada Pistilli, filósofa.

Giada Pistilli, filósofa.

Cedida

¿A qué te refieres?

Tú hablas de las fake news, que han existido siempre, incluso antes de la invención de la imprenta, ¿verdad? La gente ha difundido noticias falsas desde el principio de los tiempos. Por eso inventamos la filología, para distinguir un documento real de uno falso. Y lo mismo con los videojuegos: ahora están aquí para quedarse. Incluso tenemos videojuegos para adultos, algo que antes no existía; no éramos un público objetivo en aquel entonces. Así que no estoy segura.

¿Cómo nos afecta este cambio de paradigma?

Mi colega tiene razón cuando dice que no sabemos si la “compañía artificial” es un nuevo fenómeno que permanecerá para siempre. No estamos seguros de si en 10 años seguiremos hablando de esto. Podría ser que se normalice y se vuelva algo trivial, en plan: “Sí, a veces intercambias unos mensajes con tu compañero en el móvil y ya está”. Y no hace daño a nadie. Por otro lado, también podría ser que nos cansemos por completo de los chatbots y solo los usemos para redactar correos, para que nos ayuden a escribir o, no sé, para contrastar ideas, pero nada más. Simplemente no sabemos, porque lo estamos viviendo en tiempo real. Necesitamos más datos para confirmar cualquier hipótesis. Así que sí, debemos ser cuidadosos con cómo tratamos estos temas.

Por primera vez en la historia, tenemos máquinas que nos responden. Aún no sabemos qué hacer con eso.

Giada Pistilli filósofa

¿Es posible desarrollar éticamente compañeros virtuales? 

De entrada, pienso que es absurdo limitarse a decir que no debería hacerse. La gente ya lo está haciendo, ¿no? Tengo la misma opinión sobre, por ejemplo, la marihuana o temas similares: la gente ya lo consume y solo por prohibirlo no vas a cambiar la sociedad.

Me vienen a la cabeza ahora las “novias digitales” de Musk, pero también el hecho de que en 2025 la gente use ChatGPT esencialmente para tratar temas íntimos…

Quizá, si me permites dar un paso atrás, lo que hemos descubierto en nuestra investigación es que hay dos grandes grupos de usuarios. Por un lado, tienes un grupo enorme de usuarios que buscan activamente relaciones de compañía con la IA, y van directamente a aplicaciones como Replika o Character AI. Pero luego hay un grupo aún más grande de usuarios que no busca una relación de forma activa y consciente, pero con el tiempo, al usar herramientas como ChatGPT o cualquier otro sistema de IA de propósito general para escribir correos y compartir cada día más intimidades, surge una relación.

Lee también

Adam Mosseri, CEO de Instagram: “Juro que no escuchamos tu micrófono. No te escuchamos. No usamos el micrófono del teléfono para espiarte”

Héctor Farrés
Adam Mosseri considera que, al menos Instagram, tiene grandes efectos positivos

¿A qué nos lleva esto?

Significa dos cosas. Primero, que algo está ocurriendo en el lado técnico, que está activando o permitiendo este tipo de comportamiento en el usuario. Y, segundo, que si esto ocurre de forma no intencionada, empieza a ser bastante preocupante, porque estás creando una necesidad y una adicción donde antes no existía. Así que ahí está pasando algo que estoy intentando descifrar. ¿Viene del usuario? ¿Es porque sienten que tienen un espacio seguro entre ellos y esa criatura artificial, gracias a esa interfaz de chat que hace la conversación íntima? Porque todos sabemos que ese tipo de datos no son privados en absoluto…

Está claro que no.

Elon Musk no crea su IA porque sea un buen samaritano que quiere que tengas tu novia virtual; lo hace porque está monetizando estas cosas. ¿Y cómo las monetizan? Usando tus datos. Eso es bastante aterrador. Ante este ecosistema y estos nuevos comportamientos y fenómenos que están surgiendo, pensé: ya que esto está ocurriendo, ¿hay alguna manera de proteger lo máximo posible a los usuarios?

Antes demonizabamos los videojuegos, diciendo que estaban creando niños y generaciones violentas. Después de 10, 15 o 20 años de estudio e investigación, descubrimos que eso era simplemente falso. Puede ser que con la IA ocurra lo mismo

Giada Pistillifilósofa

Markus Gabriel, el filósofo alemán, habla de la importancia de integrar la figura del filósofo en las empresas. Él articula la idea del “director de filosofía” (Chief Philosophy Officer). A propósito, supongo que algunas personas podrían pensar que la filosofía ralentiza a los ingenieros. ¿Podrías compartir algún caso en el que, en realidad, los haya impulsado?

Sí, llevo ya bastante tiempo siendo filósofa en la industria de la IA, y no siempre ha sido fácil. No estoy segura de estar de acuerdo con mis colegas filósofos que dicen que necesitamos un “director de filosofía”, porque, tal y como conozco la industria, esa es una buena manera de quedarse aislado. Algo contra lo que he luchado toda mi carrera es que, cuando te identifican como “el de ética” o “el filósofo”, o simplemente como la persona que hace preguntas, corres el riesgo de que te vean como quien va a ralentizar los proyectos o, peor aún, quien va a decir que no a los proyectos. Y no quieres que te vean como la policía de la moral, porque ese no es tu papel.

¿Y cuál es?

Si yo fuera parte de un comité de ética, entonces sí tendría el poder normativo para decir “no, no deberíais hacer esto”, como en el caso de la clonación humana, la eutanasia o temas realmente serios. Pero los filósofos que trabajan en una empresa, que no siempre forman parte de un comité de ética, deben estar lo más integrados posible. No quieres aislarlos con un cargo de “director” de algo que no tiene un impacto directo en el producto o en el equipo científico. Además, cuando hay despidos, es muy fácil que te recorten y que tu departamento entero desaparezca.

Lee también

“Don’t be evil (No seas malvado)”: Google tenía este en sus orígenes, pero no tuvieron reparos en cambiarlo cuando se convirtieron en lo que odiaban

Pau Roldan
Horizontal

¿Tiene sentido, entonces, hacer filosofía sobre la IA?

Lo que yo he descubierto es que, por supuesto, cuando aplicas un razonamiento ético que lo impregna todo desde el principio, es cuando puede ser realmente útil. Por ejemplo, he ayudado a redactar los principios éticos de dos grandes proyectos. El primero fue Big Science. De hecho, eso fue lo que me llevó a Hugging Face. Creo que una de las cosas más difíciles que hacemos los especialistas en ética es traducir conceptos que podrían parecer vagos en acciones concretas. Y eso es lo más complicado. Pero cuando lo intentas y tiendes un puente entre los dos mundos, el teórico y el técnico, es cuando las cosas se ponen interesantes.

La mayoría de usuarios de IA no busca activamente una relación consciente con la tecnologia, pero con el tiempo, al usar herramientas como ChatGPT, surge una relación.

Giada Pistillifilósofa

No es una tarea fácil, pero creo que se puede diseñar una buena estrategia para integrarlos. Y estoy de acuerdo en que, en general, tener a gente de humanidades puede ser muy interesante. Pero esa persona también tiene que hacer el esfuerzo de entender a la gente técnica. Mi trabajo es permitirles hacer mejor lo que ya hacen. En mi propio equipo hay gente de ciencias de la computación, ciencias cognitivas, filosofía, matemáticas... todos tenemos un lenguaje y una formación diferentes. Y creo que un filósofo puede llegar y decir: “Vale, quizá pueda ayudar”. En francés hay una expresión que se traduce literalmente como “volar un poco más alto”, que significa tener una visión de conjunto e intentar darle sentido. Y esa es la mentalidad filosófica que te lleva a pensar así.

Para concluir, quiero plantearte una doble pregunta, que son más o menos las dos caras de la misma moneda. En primer lugar, desde tu punto de vista, ¿cuál es el problema más urgente que la IA debe abordar hoy? Porque se habla del futuro del trabajo, de que la Generación Z ya no va a trabajar, del consumo de recursos naturales, de los derechos de autor y de muchas otras cosas… Al mismo tiempo, quería preguntarte por el lado más inspirador de la cuestión: ¿qué es lo más emocionante que te viene a la mente cuando piensas en la IA?

No creo que haya una respuesta fácil a ninguna de las dos preguntas, pero si intento elegir una, creo que, como decía, lo más fascinante es que, por primera vez en la historia de la humanidad, tenemos ordenadores que interactúan con nosotros. Porque desde siempre, solo los humanos podían interactuar con otros humanos. Interactuamos con los animales, con la naturaleza, pero ni la naturaleza ni los animales pueden respondernos de verdad.

Lee también

Pedro Mujica, ingeniero computacional: “El capitalismo ha fracasado, ahora vivimos en el tecnofeudalismo: las grandes corporaciones nos tratan como vasallos digitales”

Juan Carlos Saloz
Pedro Mujica, ingeniero superior computacional.

Y ahora eso ha cambiado.

Creo que lo interesante es que ahora podemos tener máquinas que nos responden. Por eso estoy tan intrigada y obsesionada con ello. Sin embargo, todavía no hemos descubierto qué hacer con esa interacción. Creo que, como sociedad, necesitamos una respuesta a eso. No depende de nosotros, los investigadores, y menos aún de los que trabajamos en la industria, porque no quiero que sea una decisión impuesta desde arriba. Y digo esto porque ni siquiera los más grandes, como OpenAI a día de hoy, creo que tengan una idea clara de qué hacer con ChatGPT. Por eso tienes simplemente una barra de texto que es como una herramienta mágica: “haz lo que quieras”. Es porque ellos también están intentando averiguarlo.

Mostrar comentarios
Cargando siguiente contenido...