Christian Velasco-Gallego, ingeniero: “Hay gente que no quiere usar la IA porque le quitará el trabajo, cuando el enfoque es el contrario; te quedarás sin trabajo si no aprendes a usarla”
Inteligencia artificial
El investigador y profesor advierte sobre la urgencia de educar en inteligencia artificial desde edades tempranas y defiende una mirada crítica y razonada hacia la tecnología
Pedro Mujica, ingeniero computacional: “El capitalismo ha fracasado, ahora vivimos en el tecnofeudalismo: las grandes corporaciones nos tratan como vasallos digitales”

Christian Velasco-Gallego, experto en IA.

La inteligencia artificial ha pasado de ser un concepto técnico o de nicho a convertirse en uno de los grandes temas de nuestro tiempo. Ya no pensamos en ella como algoritmos etéreos o robots distópicos, sino como una tecnología revolucionaria que se ha colado en las aulas, los trabajos, las conversaciones cotidianas e incluso en la manera en que nos entendemos a nosotros mismos.
Christian Velasco-Gallego, de Reus, investigador en el Grupo ARIES de la Universidad Nebrija, ingeniero naval y profesor especializado en IA, ha vivido esta transformación desde dentro. Tras doctorarse en Escocia y dedicarse a aplicar la inteligencia artificial en ámbitos como la logística, la salud o la economía, acaba de publicar el libro ¿Y si la IA me arregla la vida?, que busca algo poco habitual en este terreno: enseñar a usar la IA sin venderle el alma a los algoritmos.
¿Cómo llegaste al mundo de la inteligencia artificial y qué te motivó a escribir un libro sobre cómo usarla?
Siempre quise estudiar informática, pero por cosas de la vida acabé dedicado a la ingeniería naval. Pero eso no hizo que mi interés fuera a menos. Entonces fui a hacer un Erasmus de ingeniería naval el último año en Strathclyde, en Escocia, y ahí es cuando empecé a conocer el mundo de la inteligencia artificial. Me fascinó tanto que recuperé mi interés por la informática y me matriculé a distancia, haciendo las dos carreras a la vez.
¿Cuánto hace de ello?
Fue en 2013. Empecé navales ese año y luego seguí a partir de 2015 con informática.
Entonces, comenzaste a trastear la IA mucho antes de que se pusiera de moda.
Claro, porque la IA no es algo nuevo. La inteligencia artificial lleva con nosotros desde los 80, incluso un poco antes ya se empezaba a hablar de este concepto. Pero claro, por aquella época era una IA muy fundamental, centrada en tareas de clasificación o regresión. No se hablaba de IA generativa —que es la que tenemos ahora— ni mucho menos de IA general, un concepto que todavía no hemos alcanzado.
La IA no es algo nuevo. Lleva con nosotros desde los 80, incluso un poco antes ya se empezaba a hablar de este concepto
Imagino que en el aula habrás visto un impacto evidente del auge de la IA.
Fue un impacto inmediato. Los estudiantes empezaron a usar IA para todo. Así que pensé: “ostras, como experto en IA, tengo que meterme también en la IA generativa”. Y ahí fue donde empecé a trabajar más en ese terreno. La idea del libro nació precisamente de eso. Me di cuenta de que hay mucha gente usando IA que no ha sido educada para usar estas herramientas. Simplemente, no tiene guía. Nadie les ha explicado cómo deben hacerlo.
Es que ha sido un impacto global de un día a otro.
Además, hay muchos mitos asociados a la inteligencia artificial. Cuando le pregunto a la gente cómo se imagina la IA, la mayoría piensa en el típico robot humanoide, tipo Terminator, controlado por Skynet. Y quizás es hora de hacer algo distinto. De reimaginar la IA. Aunque hay muchos libros, la mayoría son muy técnicos, y creo que era hora de escribir uno accesible, que explicase los conceptos de la manera más simple posible. De hecho, me hizo mucha ilusión que mi abuelo, con 88 años, lo leyera. Obviamente, no usa estas tecnologías —todavía marca los números en el teléfono de toda la vida—, pero hay cosas que sí entendió. Y eso, para mí, ya es importante.

Como experto en IA, ¿cómo crees que ha cambiado nuestra relación con esta tecnología en los últimos años?
Yo creo que, sobre todo, ha cambiado el nivel de conciencia. Hace años que usamos inteligencia artificial, pero no éramos conscientes de ello. Herramientas como Alexa o Google Translate ya usaban modelos de inteligencia artificial. No eran los mecanismos de atención que implementan ahora herramientas como ChatGPT, pero sí eran algoritmos de IA. Llevamos mucho tiempo conviviendo con ellos; lo único que ahora existe una conciencia colectiva sobre su presencia.
Pero ChatGPT, Sora y compañía… están a otro nivel.
Gracias a herramientas como ChatGPT, la IA se ha democratizado. Es más accesible, más visible. Yo diría que la diferencia principal es esa: antes la gente usaba IA sin saberlo, y ahora sabe que la está usando. Y entiende que puede ayudar en muchas tareas cotidianas, mientras que antes estaba más enfocada a funciones muy específicas —como los sistemas de recomendación o el análisis de clasificación—.
Hay una cosa que me llama la atención del subtítulo del libro, que es “sin venderle tu alma a los algoritmos”. ¿Por qué crees que es necesario enfatizar esa parte?
Es importante porque no somos del todo conscientes de la cantidad de datos que generamos con el móvil y con las herramientas que usamos. Mucha gente utiliza este tipo de sistemas como si fueran consejeros personales, sin darse cuenta de que están entregando parte de su identidad digital. Los datos que damos —a estas herramientas o a las redes sociales— dicen mucho de nosotros: quiénes somos, qué nos gusta, qué no nos gusta… Y eso puede usarse para nuestro bien, pero también en nuestra contra. Si alguien sabe qué te interesa o cómo piensas, puede guiarte hacia ciertos pensamientos o ideas, o personalizarte anuncios y mensajes de forma muy precisa. Y eso tiene un impacto en nosotros, aunque no siempre seamos conscientes.
Ya pasaba con las redes, ¿pasa también con los modelos de IA?
Claro. Cuando usamos herramientas como ChatGPT, hay que leer las políticas de uso. Dependiendo de la plataforma, pueden utilizar nuestros datos para entrenar sus modelos. De hecho, empresas como Anthropic han tenido que pagar una buena multa porque usó libros sobre los que no tenía derechos de uso. Y claro, eso tiene un impacto. Hay una línea muy borrosa entre lo que se puede hacer y lo que no con estos modelos; mucha ambigüedad. Es cierto que están empezando a surgir regulaciones, sobre todo en la Unión Europea, pero todavía queda mucho trabajo por hacer en este sentido.

¿Podrías compartir alguna situación en la que la IA te haya arreglado la vida?
Yo diría que el cambio es principalmente a nivel laboral. Desde que uso este tipo de herramientas soy mucho más productivo. Desde redactar correos o preparar presentaciones hasta personalizar un poco las clases. Porque ya vemos que los estudiantes tienen diferentes ritmos y curvas de aprendizaje, y la IA puede ayudarnos mucho a adaptarnos a eso. También sirve para cosas más simples, como darle un documento y pedirle que lo resuma. Obviamente, luego hay que revisar ese resumen, pero al menos ya partimos de una base, de una herramienta adicional que nos facilita el trabajo.
¿Algo más concreto?
Una de las aplicaciones que más me gusta, porque me parece muy práctica, es en la cocina. Vamos siempre con prisas y llegas a casa, abres la nevera y tienes cuatro ingredientes… si eres optimista. Entonces no sabes qué cocinar, pero tampoco quieres pedir fuera. Si lo buscas en un motor de búsqueda como Google, te salen recetas muy preestablecidas o que no encajan con lo que tienes. En cambio, con la IA le dices los ingredientes que hay y te da una receta posible. Puede ser mejor o peor —milagros a Lourdes—, pero al menos así tienes un punto de partida.
No podemos usar lo que nos dice una herramienta de IA como una verdad absoluta. Hay que revisar la información que ofrece, porque puede estar desactualizada
¿Para qué más recomiendas usar la IA?
También la uso para planificar viajes, aunque siempre con cabeza. No podemos usar lo que nos dice una herramienta de IA como una verdad absoluta. Hay que revisar la información que ofrece, porque puede estar desactualizada. Puede decirte que hay un restaurante que ya ha cerrado, o un hotel que ya no existe, o darte información errónea sobre visados. Si nos basamos solo en eso sin corroborarlo, podemos tener problemas.
A cada uso aparece un “pero”. ¿No se suponía que nos iba a arreglar la vida?
A ver, yo no creo que la IA te vaya a arreglar realmente la vida. De hecho, lo explico al final del libro: la inteligencia artificial no va a arreglarnos nada por sí sola. Es una tecnología, y como cualquier tecnología, puede ser buena o mala dependiendo del uso que hagamos de ella. Tenemos que dejar de otorgarle tanto poder y verla como lo que es: una herramienta. Puede ser muy útil, puede beneficiarnos, pero también tiene sus desventajas. La clave está en ser conscientes de eso: probablemente no nos arregle la vida, pero sí puede ayudarnos mucho si la usamos con criterio.
Alguien que comience a usar la inteligencia artificial generativa hoy para su trabajo, ¿cuántas horas puede ahorrarse en poco tiempo?
Es muy difícil decirlo, porque depende mucho de la persona. Por ejemplo, yo era muy perfeccionista a la hora de escribir correos. Podía tardar una hora en redactar uno. Ahora, con estas herramientas, lo tengo listo en cinco minutos. ¿Por qué? Porque dibujo la estructura, la IA me genera un texto base con una gramática prácticamente perfecta, y solo tengo que revisar y enviar. Obviamente, hay correos y correos, pero el ahorro es notable. Lo mismo pasa con las presentaciones o los informes. Al final, depende del tipo de tareas que tenga cada uno.
Vayamos a algo concreto, que será más fácil. Un profesor, por ejemplo. Que debe preparar clases, corregir exámenes, actualizar materiales... ¿Cuánto puedes ahorrarte en todo esto?
Es difícil traducirlo a horas exactas, porque más que ahorrarme tiempo, lo que hace es que lo redistribuyo mejor. Antes, por ejemplo, podía pasarme todo el semestre preparando el material. Ahora puedo hacerlo en menos tiempo y dedicar parte de ese esfuerzo a actualizar los contenidos o adaptarlos. Eso me permite centrarme en personalizar la enseñanza, porque cada estudiante tiene su propio ritmo y curva de aprendizaje. Así que más que ahorrar tiempo, la IA me ayuda a usarlo de manera más inteligente.
Si tu trabajo es completamente automatizable, si consiste en tareas repetitivas, entonces sí, preocúpate. Pero como con cualquier revolución tecnológica, unos empleos desaparecen, otros se transforman y otros nuevos aparecen
¿Cuál es la barrera más grande que percibes en la gente común a la hora de empezar a utilizar la IA?
El miedo. Sin duda. El miedo que viene del desconocimiento, de no saber exactamente qué es esta herramienta ni qué puede hacer y qué no. Es como si de verdad creyéramos que le estamos vendiendo el alma a los algoritmos. Existen muchos mitos alrededor, desde pensar que la IA tiene conciencia hasta temer que nos controle o nos suplante. Y luego está el miedo a los datos, que tampoco ayuda. O el miedo a perder el trabajo: “¿Para qué voy a usarla, si va a quitarme el empleo?”. Cuando, en realidad, ocurre lo contrario: probablemente te lo quitarán si no aprendes a usarla, porque esta tecnología —nos guste o no— ha llegado para quedarse.
Quizá deberíamos empezar a plantearlo desde otra perspectiva: no es tanto un problema que nos quite horas de trabajo, sino que tal vez estamos haciendo muchas cosas automatizables, y podríamos avanzar hacia una sociedad con más tiempo para otras actividades.
Exacto. Si tu trabajo es completamente automatizable, si consiste en tareas repetitivas, entonces sí, preocúpate. Pero como con cualquier revolución tecnológica, unos empleos desaparecen, otros se transforman y otros nuevos aparecen. No dejamos de estar en otra revolución más. Es inevitable que algunos trabajos desaparezcan, pero también surgirán otros. Y, como dices, hay que cambiar el foco: no pensar tanto en sustitución, sino en colaboración. Hay muchas tareas cotidianas que no se pueden automatizar por completo, por su componente analítico o creativo. Así que usemos estas herramientas como aliadas, no como amenazas.

¿Qué le recomendarías a alguien que quiere comenzar a usar la IA?
Pues lo primero, que se informe. ¿Por qué? Porque aunque parece muy fácil de usar, en realidad no lo es tanto. Todo depende de la instrucción que le des: si la instrucción está mal planteada, el contenido que genera no será bueno. Entonces te frustras y piensas: “vaya herramienta más mala”, cuando en realidad el problema no está en la herramienta, sino en cómo la usamos o en las expectativas que tenemos sobre ella.
¿Cuál es el error más habitual que detectas en la gente que empieza a usar la IA y ves que va por mal camino?
Creo que el principal error son las expectativas. Mucha gente empieza a conversar con la IA como si fuera un WhatsApp y se piensa que “piensa”, que “empatiza” o que tiene algún tipo de juicio. Pero no: son modelos que se basan en datos. Ese es el error de base. ¿Por qué? Porque si empezamos a confiar ciegamente en la herramienta, creyendo que tiene emociones o comprensión real, acabamos dándole un uso incorrecto y no la aprovechamos en las tareas en las que realmente puede aportarnos valor.
Muchas veces usamos estas herramientas para decidir sin darnos cuenta de que no entienden las decisiones que están tomando
¿Y cuáles crees que son las tareas que, sí o sí, al menos de momento, deben seguir en manos humanas?
Primordialmente, todo lo que tenga que ver con la toma de decisiones. Muchas veces usamos estas herramientas para decidir —ya sea en diagnósticos médicos o en procesos laborales, como decidir a quién contratar— sin darnos cuenta de que no entienden las decisiones que están tomando. Se basan en patrones observados en los datos, pero no comprenden el contexto ni las consecuencias. Por eso me parece peligroso delegar decisiones críticas en sistemas que no tienen conciencia ni juicio. Lo ideal sería que estas herramientas nos sugirieran opciones, pero que la decisión final la tomemos nosotros.
¿Cuándo crees que debería entrar la IA en la infancia?
Desde mi punto de vista: cuanto antes, mejor. Eso sí, con cabeza, como siempre. Eso no significa sustituir los libros convencionales y poner tablets a todos los niños, como se ha hecho en algunos casos. Pero sí empezar a usarla y, sobre todo, a aprender sobre ella. No solo IA generativa, sino inteligencia artificial en general. ¿Por qué? Porque si llegamos a los 18 o 20 años sin haber aprendido cómo funcionan estas herramientas, probablemente las usemos mal o para cosas que no deberíamos. Cuanto antes creemos conciencia sobre ello, mejor será para todos.
¿Hasta qué punto es peligroso usar la IA como terapeuta?
A mí eso me da miedo, porque estamos humanizando una tecnología. La IA ni empatiza ni tiene juicio; se basa exclusivamente en datos. Además, al contarle tus cosas, estás entregando tus propios datos personales. Yo creo que no debemos perder esa esencia humana. Para esas situaciones, prefiero hablar con un amigo o, si hace falta, con un terapeuta. Pero usar la IA para desahogarse o para buscar comprensión emocional me parece algo que requiere mucho cuidado. Ya ha habido casos desafortunados de personas que pensaban que la herramienta empatizaba con ellas y eso ha tenido consecuencias graves. Por eso es muy importante no humanizar esta tecnología.
¿Cuáles son tus herramientas favoritas de IA? Tus imprescindibles del día a día.
La que uso más, obviamente, es ChatGPT. Pero también me gustan mucho Claude y Gemini, esta última sobre todo para generar imágenes cuando no son tareas visualmente críticas, porque las genera mucho más rápido que ChatGPT. Y, por supuesto, el famoso Canva, que me ayuda muchísimo con las presentaciones. La verdad es que es una maravilla, puedes aprovecharla para muchas cosas. Por último, te diría Copilot, a nivel laboral. Como es de Microsoft, se integra directamente con Word, PowerPoint, Excel… y también con herramientas como Power Automate. Es una ayuda enorme para automatizar tareas del día a día.
¿Te pasa alguna vez que dices 'Ay, todavía no hay una IA para esto'? ¿Algo que eches de menos?
Sí, me pasa. Sobre todo con las tareas de gestión. Me gustaría poder automatizarlas del todo. Sé que se está trabajando en eso con los llamados agentes de IA, que son capaces de actuar por iniciativa propia —por ejemplo, escribir un correo automáticamente cuando recibes uno—, pero todavía están en una fase bastante prematura. Hay que desarrollarlos más para que sean realmente útiles y fiables.




