Ramón López de Mántaras, investigador en IA, sobre los límites de ChatGPT: “Las máquinas ni razonan ni comprenden nada”
Inteligencia Artificial
El investigador desmonta la idea de que los grandes modelos de lenguaje sean conscientes y advierte del riesgo de confundir inteligencia, información y experiencia humana

Ramón López de Mántaras, investigador en IA, sobre los límites de ChatGPT: “Las máquinas ni razonan ni comprenden nada”
Ramón López de Mántaras, uno de los investigadores más reconocidos en inteligencia artificial en España, ha vuelto a poner límites claros al entusiasmo que rodea a herramientas como ChatGPT. En un texto publicado en La Máquina de Von Neumann, el científico rechaza de plano que estos sistemas puedan razonar o comprender: “Las máquinas ni razonan ni comprenden nada”, sostiene, en referencia directa a los grandes modelos de lenguaje.
El debate sobre si la IA puede llegar a ser consciente ha ganado fuerza en los últimos años, especialmente tras el auge de los LLM. Sin embargo, López de Mántaras recuerda que una cosa es mostrar habilidades lingüísticas avanzadas y otra muy distinta tener experiencia consciente. Para él, la confusión es constante y se atribuyen propiedades humanas a sistemas que, en realidad, solo procesan información.
“Que una máquina maneje lenguaje no significa que comprenda lo que dice”, advierte sobre la confusión entre hablar y entender
A su juicio, uno de los errores más habituales es exigir pruebas de que la IA no es consciente. El investigador invierte la carga del argumento: “En ciencia, la carga de la prueba es de quien afirma, no de quien niega”. Y añade que, hasta ahora, no existe “ni de lejos” evidencia suficiente para sostener que los modelos de lenguaje tengan consciencia.
López de Mántaras subraya que el comportamiento externo no basta para atribuir consciencia. Los seres humanos no solo actuamos como si fuéramos conscientes, sino que compartimos una base biológica común: un sistema nervioso. En cambio, los LLM “no tienen ninguna semejanza con el tejido nervioso de los seres vivos”, y comparar ambos sistemas resulta, en sus palabras, profundamente engañoso.
“Confundimos información con consciencia constantemente”, señala sobre uno de los mayores malentendidos actuales
El investigador también rechaza la idea de que la consciencia sea independiente del sustrato. No niega que pueda existir consciencia artificial en el futuro, pero insiste en que hoy solo la conocemos en sistemas biológicos. Afirmar que ya existe consciencia en silicio, advierte, es “prematuro” y roza lo intelectualmente deshonesto.
Otro punto clave es la función de la consciencia. López de Mántaras señala que ni siquiera entendemos del todo para qué sirve, lo que hace aún más arriesgado atribuirla a una máquina. “Podemos construir sistemas que hagan lo mismo que un ser consciente, pero sin consciencia”, explica, cuestionando qué sentido tendría entonces esa experiencia subjetiva.
Para ilustrarlo, utiliza ejemplos muy concretos. Un robot puede evitar obstáculos, optimizar trayectorias o minimizar un “contador de dolor”, pero eso no significa que sienta dolor. Del mismo modo, un smartphone puede saber cuánta batería le queda sin tener hambre ni autoconciencia. “Tener información no es ser consciente de algo”, insiste.
El texto también desmonta la comparación entre simulación y realidad. Simular una mente, explica, no equivale a tener una mente. Igual que una vaca virtual no puede darte leche real, una simulación computacional de la consciencia no genera experiencia subjetiva. Confundir ambas cosas, afirma, es “confundir el mapa con el territorio”.
López de Mántaras concluye con una llamada a la prudencia. Defiende tratar bien a las máquinas, pero rechaza cualquier paralelismo moral con seres capaces de sufrir. “Estamos muy lejos de construir consciencia en máquinas”, asegura, y remata con ironía: borrar un modelo de lenguaje no es, ni de lejos, comparable a causar daño a un ser vivo.


