¿Te ha pasado que le pides a la IA una información, te responde con mucha seguridad, vas a comprobarla… y resulta que no existe? Eso, según Adrián Nicieza, no es un fallo puntual: es una alucinación, y forma parte de uno de los mayores problemas estructurales de los modelos de inteligencia artificial generativa como ChatGPT.
“Las alucinaciones de ChatGPT son cuando nos da una respuesta que nos parece plausible, pero es totalmente incorrecta”, explica Nicieza en un vídeo publicado en su cuenta de Instagram, @edrian.exe.
Estas alucinaciones no son exclusivas de ChatGPT ni de OpenAI. Ocurren en la gran mayoría de modelos actuales, y se deben a dos factores principales: el entrenamiento del modelo y el funcionamiento interno de los transformadores que procesan la información. Según el experto, no se trata de una mentira intencionada: “El modelo no te está mintiendo, porque ni siquiera sabe lo que te está diciendo”.
Y ahí está la clave: los modelos de lenguaje no entienden, solo generan texto fluido en base a patrones estadísticos aprendidos durante su entrenamiento. No razonan, no comprenden, no tienen sentido del contexto como lo tendría un ser humano.
El modelo no te está mintiendo, porque ni siquiera sabe lo que te está diciendo”
Nicieza explica que cuando introduces un prompt, el sistema lo convierte en una secuencia de tokens (fragmentos de información codificados) y busca una salida estadísticamente coherente. De ahí que pueda ofrecer datos que parecen verídicos, pero que en realidad son fabricados o mal interpretados. “No le está dando un sentido humano a la información —aclara—. Lo que está haciendo es predecir, no verificar.”
Mejor que suene bien a que sea verdad
¿Y por qué no lo corrigen?
Aunque existen formas de reducir las alucinaciones —como el ajuste fino o el uso de modelos reflexivos—, Nicieza sugiere que la experiencia de usuario también influye en las decisiones de diseño. Según el experto, “queda mucho mejor a nivel marketing que la IA te dé una respuesta segura, aunque esté mal, que una herramienta que constantemente te diga ‘no lo sé’”. Y remata con tono crítico: “Aceptamos mejor que nos mienta de forma fluida, a que se comporte como una tecnología limitada”.
También señala un problema muy habitual: cuando se trabaja con documentos PDF. Como muestra el creador Carlos (@thinkinginblack), a veces la IA afirma que cierta información está en una página concreta… y no hay ni rastro. “Mi modelo no está entrenado para entender documentos en PDF”, aclara Nicieza, quien insiste en que, para obtener resultados fieles, es necesario configurar correctamente el sistema o incluso crear una versión personalizada del modelo.
Su recomendación es clara: conocer bien los límites y particularidades de cada versión —como GPT-4, 4.5 o los modelos mini—, y utilizar herramientas mejor adaptadas para documentos, como Notebook LLM, Perplexity o Claude (Anthropic). Porque, concluye, “eso es lo que te convierte en alguien que realmente sabe usar estas herramientas, y no solo en quien las usa para entretenerse”.

