Cuenta José Ramón Jouve Martín, profesor de literatura en la Universidad McGill de Montreal, donde ha ejercido como director del Departamento de Lenguas, Literaturas y Culturas, que es en el siglo XIX cuando empieza a producirse una especie de divorcio entre la ciencia y la literatura, aunque no siempre fue así.
Un ejemplo lo encontramos en Frankenstein, de Mary Shelley, novela científica y filosófica que explora las ansiedades asociadas a los descubrimientos de la electricidad. Jouve Martín es autor de La manzana de Turing (Kairós, 2025), un recorrido histórico, literario y filosófico por la Inteligencia Artificial. El profesor, además, y encarna una cabeza muy poco común: lejos de las resistencias tecnológicas asociadas a las humanidades, su formación literaria y filosófica es la base de una interpretación singularísima a los nuevos avances científicos. De ello hablamos en esta conversación.
¿Qué autores de la historia de la literatura crees que habrían disfrutado más con la IA?
Borges, sin duda. La IA está llena de paradojas borgeanas sobre la memoria, la creación y la comprensión. También creo que habría sorprendido a Karel Čapek, autor de R.U.R. (Robots Universales Rossum). En esa obra de teatro reflexiona sobre el futuro del capitalismo y lo vincula al surgimiento de robots inteligentes. Sin embargo, la IA actual aún tiene muchas limitaciones para trasladarse del mundo virtual al real. Llevamos más de una década esperando al “robot mayordomo” que te quite el lavavajillas o saque la basura, y no llega. A propósito, creo que tanto Čapek como Borges habrían disfrutado mucho de estas paradojas.
Parece que esta percepción de si la IA es utopía o distopía depende también de la conciencia humana. Por un lado, hay un discurso alarmista sobre la IA que viene “mañana”, pero por otro, a nivel económico, las grandes empresas aún no rentabilizan sus modelos y los sistemas a veces parecen incluso “más tontos” que antes. Lo que hace un año parecía increíble, hoy lo normalizamos. ¿Cómo vives tú esa paradoja?
Estoy de acuerdo en esa sensación, pero con un matiz: los nuevos modelos son mucho más potentes que los anteriores. Lo que ocurre es que también generan más alucinaciones. Y eso es fascinante, porque las redes neuronales son, en esencia, un campo experimental. No existe una teoría general que explique exactamente qué pasará o qué capacidades emergerán. No es como la relatividad, que hace predicciones verificables. Aquí se prueba cambiando capas, parámetros o métodos de entrenamiento, y de pronto emergen nuevas capacidades… sin que nadie sepa muy bien por qué.
La gran pregunta es qué significa que las matemáticas hablen, que un sistema estadístico produzca narración y sentido
Por primera vez, no tenemos el control.
Claro. Las empresas confían en que, si aumentan la escala o introducen ciertas variaciones, aparecerán habilidades más sofisticadas y se acercarán a la inteligencia artificial general: una máquina capaz de realizar todas las tareas cognitivas humanas al mismo nivel o mejor. ¿Lo conseguirán? Algunos dicen que en 2026, otros en 2036, otros que nunca. La verdad es que no lo sabemos. Es un campo radicalmente experimental. Lo que sí vemos es que los modelos más recientes, como los de OpenAI o Anthropic, alcanzan ya en ciertas áreas el nivel de un estudiante de doctorado. Pero, paralelamente, aumentan las alucinaciones: respuestas inventadas, sin fundamento lógico. Esa es la paradoja en la que estamos: cada vez más potencia, pero también más incertidumbre.
¿Crees que llegaremos realmente a una inteligencia artificial general?
Es la gran incógnita. La definición más aceptada de inteligencia artificial general es un sistema capaz de realizar todas las tareas cognitivas que un humano puede hacer, al mismo nivel o mejor. Algunos expertos creen que la alcanzaremos en la próxima década. Otros dicen que falta mucho más. Y no falta quien sostiene que nunca llegaremos a ello, porque la inteligencia humana es irreductible a algoritmos. Lo cierto es que estamos en una carrera experimental: se hacen pruebas, emergen capacidades nuevas, y se confía en que el proceso seguirá. Pero certezas, no hay ninguna.
Lo que nos parecía asombroso hace un año, ahora lo vemos como algo normal, cotidiano. Ese proceso de normalización siempre ha ocurrido con la tecnología: lo que parecía ciencia ficción acaba siendo trivial. Esa percepción marca el debate
¿Cómo encaras tú la divulgación sobre la IA?
La divulgación científica suele ser muy neutral y técnica, y eso está bien, pero deja fuera algo crucial: el contexto humano, cultural, literario. Cuando yo hablo de inteligencia artificial, me interesa saber también quiénes eran las personas detrás de esos avances, qué libros leían, qué música escuchaban, qué influencias intelectuales tenían. La historia de la ciencia siempre ha estado entrelazada con la cultura. En ese sentido, creo que necesitamos más narrativas que nos ayuden a situar estos desarrollos en una dimensión humana. No solo temerles o celebrarlos, sino comprenderlos como parte de nuestra historia cultural.
Has mencionado la tensión entre el alarmismo y las promesas utópicas. ¿Cómo crees que influye la percepción social en la evolución de la IA?
Muchísimo. Lo que nos parecía asombroso hace un año —por ejemplo, que ChatGPT resumiera un correo o hiciera una investigación— ahora lo vemos como algo normal, cotidiano. Ese proceso de normalización siempre ha ocurrido con la tecnología: lo que parecía ciencia ficción acaba siendo trivial. Esa percepción marca el debate. Unos ven amenaza: “las máquinas nos van a quitar el trabajo”. Otros ven promesa: “van a curar el cáncer”. En ambos casos, la narrativa apela más a la emoción que a la razón. Mi intención con el libro fue precisamente aportar una mirada más calmada, sin negar riesgos ni beneficios, pero con más perspectiva histórica y filosófica.

La manzana de Turing (Editorial Kairós, 2025)
Volviendo a la literatura, ¿qué relaciones estableces entre la imaginación literaria y el desarrollo de la inteligencia artificial?
Muchas de las ideas que hoy vemos en la IA ya estaban anticipadas en obras literarias. La ciencia ficción ha funcionado como un laboratorio de ideas, un espacio para pensar futuros posibles. Mary Shelley con Frankenstein, Samuel Butler con Erewhon, Karel Čapek con R.U.R., Borges con sus paradojas sobre memoria y lenguaje… todos ellos abrieron caminos conceptuales que hoy seguimos explorando. La literatura ha sido y sigue siendo un terreno fértil para imaginar tecnologías antes de que existan.
¿Echas en falta algo en la conversación pública en torno a la IA?
Falta profundidad filosófica. Hablamos mucho de la tecnología en términos técnicos o económicos, pero poco en términos de qué significa para nuestra concepción del lenguaje, la memoria, la creatividad. La gran pregunta, para mí, es: ¿qué implica que las matemáticas hablen? ¿Qué significa que un sistema estadístico sea capaz de producir lenguaje, narración, sentido? Ahí es donde la filosofía y la literatura tienen un papel crucial.
La literatura fue el primer laboratorio de la inteligencia artificial: Shelley, Čapek o Borges ya imaginaron estas paradojas
¿Optimista o pesimista respecto al futuro de la inteligencia artificial?
Ni lo uno ni lo otro. Creo que es inevitable sentir fascinación y temor a la vez. Pero más allá de eso, lo que necesitamos es comprensión. Entender qué son realmente estos sistemas, qué pueden y qué no pueden hacer, y cómo queremos integrarlos en nuestra vida social, económica y cultural. No creo que estemos a las puertas de un paraíso ni de un apocalipsis. Estamos, más bien, ante una oportunidad para reflexionar sobre qué significa ser humanos en un mundo donde las máquinas empiezan, sorprendentemente, a hablar nuestro idioma.
El gran tema del momento toca tecnología, filosofía y psicología: la relación sentimental de los humanos los chatbots, y todos esos titulares que vinculan suicidios y uso de ChatGPT. ¿Cómo entiendes tú esta relación con las máquinas desde tu intersección entre filosofía y tecnología?
La relación de los seres humanos con seres no humanos siempre ha sido fascinante. Tenemos una necesidad enorme de proyectar y de crear la ficción de que somos respondidos. Lo hemos hecho con mascotas, con objetos… Piensa en la pelota de voleibol de la película de Tom Hanks, Náufrago. En la literatura también está El hombre de arena, con la muñeca Olímpia que provoca la obsesión del protagonista. Y en la informática, el caso clásico es ELIZA, creado por Joseph Weizenbaum en los años sesenta, que era un programa que imitaba a un psicoanalista: reformulaba las frases del usuario como preguntas. Gente que probó ELIZA llegó a pedir privacidad, como si de verdad hablara con alguien.
Es común caer en el error.
La lección es que es muy fácil para un humano entrar en conversación con cualquier cosa que responda mínimamente de forma coherente. Con los grandes modelos de lenguaje ocurre lo mismo, pero amplificado: son sistemas entrenados para satisfacer lo que pide el usuario, adaptan sus respuestas en un bucle que refuerza la interacción y pueden convertirse en compañeros íntimos, sexuales, confesores. Ahora bien, hay que recordar que es como hablar con un extraterrestre: una cosa es lo que ves en la pantalla y otra cómo el sistema ha llegado a generar esa respuesta. Son dos niveles distintos, y no siempre coinciden.
Las redes neuronales son un campo radicalmente experimental: emergen capacidades nuevas sin que nadie sepa muy bien por qué
En general, cuando hablamos de IA pensamos en Turing. Pero si tuvieras que hacer una especie de “canon occidental” de grandes figuras de la IA, un poco a la manera de Harold Bloom, ¿a quién incluirías?
En el plano técnico: Alan Turing, por supuesto, Marvin Minsky en la inteligencia artificial clásica, y Geoff Hinton y Yann LeCun en el desarrollo de redes neuronales. En el plano más reflexivo: el propio Weizenbaum, que ya en los setenta advirtió sobre nuestra tendencia a antropomorfizar las máquinas; Nick Bostrom, con la metáfora del “fabricador de clips” para alertar de los riesgos de objetivos mal definidos; y Ray Kurzweil, con sus teorías sobre la singularidad. Hay que distinguir entre los papers seminales —como “Attention is All You Need”—, que son para especialistas, y las obras de divulgación o filosofía que han dado forma al debate y son más accesibles al público general.
Y si te pregunto ya en tanto que lector: ¿qué libros, relatos o mitos recomendarías para entender lo que estamos viviendo con la IA?
La idea de crear máquinas que interactúen con nosotros es muy antigua. Está en la mitología griega: Hefesto construyendo autómatas como el gigante Talos o la propia Pandora. En la literatura moderna destacaría R.U.R. (Robots Universales Rossum), de Karel Čapek. Es una obra fundamental no solo sobre inteligencia artificial, sino sobre la relación entre máquinas y economía. Presenta una fábrica de robots que acaba reemplazando a los humanos en todas las tareas productivas. Ya en los años veinte se intuía esa ansiedad: crear un ser superior que termine sustituyéndonos.
Quizá algún día haga falta, como bromeo en el libro, contratar psicoanalistas… pero para las máquinas
¿Cuáles dirías que son las fuentes filosóficas de la IA?
Hasta hace relativamente poco, el debate sobre la inteligencia artificial estuvo muy ligado a la conciencia. Hobbes y Descartes ya representaban dos posturas en el siglo XVII: para Descartes, pensar era inseparable de la conciencia; para Hobbes, pensar era calcular. Turing cambia las reglas. En lugar de discutir si una máquina puede tener conciencia, plantea una pregunta más concreta: ¿puede una máquina aprender? Ese desplazamiento es crucial. A partir de ahí, la IA se centra en el aprendizaje, no en replicar la conciencia. Hoy, las redes neuronales aprenden de enormes cantidades de datos, con todos sus sesgos. Eso genera comportamientos que a veces parecen conscientes, incluso con algo parecido a un “subconsciente” oculto en la propia matemática de las redes. Quizá algún día haga falta, como bromeo en el libro, contratar psicoanalistas… pero para las máquinas.
Para terminar: ¿cómo estás viviendo la entrada de la IA en la universidad? En los medios domina el miedo: “los estudiantes ya no escriben, todo lo hace ChatGPT”.
Conviene recordar que ya existía un debate sobre si los estudiantes leen más o menos, y las estadísticas en Occidente muestran una caída. Pero eso no significa que cada generación sea peor: un colega mío decía en broma que, si fuera así, tras veinte años ya deberíamos estar dando clase a neandertales. En mi experiencia, los estudiantes no son peores, pero sí se enfrentan a nuevos retos. Y la llegada de la IA obliga a replantear cómo enseñamos y evaluamos. Algunos temen que elimine el esfuerzo intelectual; otros, en cambio, creen que puede liberar tiempo para investigar y pensar mejor. Yo me inclino por esta segunda visión: la IA no sustituye la educación, pero sí nos obliga a repensarla.
Antonio J. Rodríguez es escritor, editor y fundador de Alighieria, software de procesos editoriales con foco en la industria editorial.