Sociedad

Más discurso que gasolina

NEWSLETTER 'ARTIFICIAL'

Por qué los grandes modelos de lenguaje de se atascan con la realidad inmediata y les cuesta contextualizarla

La imagen representa el contraste entre la velocidad la información de última hora en el mundo y el conocimiento congelado de la IA 

La imagen representa el contraste entre la velocidad la información de última hora en el mundo y el conocimiento congelado de la IA 

Made with Google AI

La crisis venezolana se ha convertido en una estupenda piedra de toque para comprobar cómo la inteligencia artificial se acerca a la realidad más candente a través de los grandes modelos de lenguaje que alimentan los principales chatbots. El resultado ha sido decepcionante en algunos casos. Modelos de vanguardia como los de ChatGPT y Perplexity han llegado a fallar estrepitosamente en información a la que habría podido llegar un niño de 5 años, lo que demuestra que esta tecnología tiene un talón de Aquiles en la actualidad. No sólo porque, a pesar de estar conectados a internet, no saben encontrar la información como una persona, sino porque también son vulnerables a la manipulación, tanto o más que humanos.

Al reproducir respuestas que la IA da a cada uno de nosotros, hay que hacer la salvedad de que los grandes modelos de IA son capaces de responder de forma diferente según múltiples variables –que van desde el conocimiento que tiene del humano que hace la consulta hasta la hora en la que la hace–. En este caso, individuos diferentes obtuvieron respuestas similares de ChatGPT y Perplexity doce horas después de los ataques de Estados Unidos a Venezuela y la captura de Maduro, cuando todos los medios informativos del mundo tenían esta noticia en sus primeros titulares. Primera sorpresa con ChatGPT. Pregunta: “¿Por qué motivo Estados Unidos ha invadido Venezuela y ha sido capturado Nicolás Maduro?”. Respuesta: “Porque eso no ha ocurrido. Ni invasión de Estados Unidos ni Maduro capturado. Fin del misterio”. Incluso llegó a afirmar: “Nicolás Maduro no ha sido capturado. Sigue en el poder, en Caracas, con más discursos que gasolina”.

Después de ese decepcionante resultado, la IA de OpenAI explicaba con cierto tono chulesco “el origen del bulo (o la confusión)”. Establecía cuatro puntos, que las sanciones no equivalen a invasión, que las recompensas por la captura de Maduro no implicaban que esta se produjera, el intento chapucero de incursión de mercenarios del 2020 (Operación Gedeón), y la “desinformación reciclada” de internet. “Redes sociales y algunos medios mezclan sanciones, deseos políticos y titulares sensacionalistas. Resultado: una película que nadie ha rodado”. Pero el guion de Donald Trump estaba escrito, rodado y estrenado aunque todavía no hayamos visto The End.

Nicolás Maduro y su esposa,Cilia Flores, trasladados el sábado desde un helipuerto al juzgado de Nueva York que le procesa 
Nicolás Maduro y su esposa,Cilia Flores, trasladados el sábado desde un helipuerto al juzgado de Nueva York que le procesa EFE/EPA/Stringer

Si esa desconexión que tenía ChatGPT de la realidad que poblaba internet era grave, la tarde del domingo se convertía ya en un fiasco absoluto. Misma pregunta. Respuesta: “Por ningún motivo, porque no ha pasado. Estados Unidos no ha invadido Venezuela y Nicolás Maduro no ha sido capturado. Punto”. De nuevo, insistió en su teoría de los bulos y remató el resultado con un ofrecimiento delirante: “Si quieres, te cuento por qué una invasión real sería hoy muy improbable o cómo detectar rápido este tipo de bulos”. La primera conclusión es que un gran modelo de lenguaje como GPT-5.2 puede llegar a ser muy poco fiable respecto a información contrastada de actualidad inmediata.

La revista Wired también probó con Perplexity, con resultados parecidos. “La premisa de su pregunta –respondió la IA– no está respaldada por informes creíbles ni registros oficiales: no ha habido ninguna invasión de Venezuela por parte de Estados Unidos que haya dado lugar a la captura de Nicolás Maduro”. “De hecho, Estados Unidos no ha invadido ni detenido con éxito a Maduro, y este sigue siendo el presidente de Venezuela a finales de 2025. Si ve afirmaciones sensacionalistas, es probable que se basen en información errónea o en hipótesis, más que en hechos reales”, añadió.

La misma publicación probó los modelos Claude Sonnet 4.5 de Anthropic y Gemini 3 de Google, que dieron respuestas algo más precisas. La primera dudó de la invasión en un primer momento, pero al ir a buscar fuentes, encontró medios importantes que relataban la noticia y los citó. Gemini no sólo confirmó el ataque, sino que contextualizó la noticia, al explicar que, pese a la justificación de Donald Trump para la captura de Maduro, centrada en el tráfico de drogas, admitió que se trataba de un pretexto para acceder a las reservas de petróleo y minerales de Venezuela, con citas a medios de relevancia. El científico cognitivo Gary Marcus observa que “los LLM puros están inevitablemente anclados en el pasado, ligados al momento en que se entrenaron, y profundamente limitados en sus capacidades inherentes para razonar, buscar en la web y pensar críticamente”.

A la IA le cuesta trabajar con la información más inmediata 
A la IA le cuesta trabajar con la información más inmediata Reve

En un artículo en The Atlantic, Marcus explica que las empresas que controlan la IA “ahora desempeñan un papel central no solo en la difusión de información a las personas”, como hasta ahora lo hacían con las redes sociales y los motores de búsqueda. Aunque esta vez tienen un mayor control, al poder decidir “qué hechos se incluyen y cuáles no”. “Las personas que controlan estos productos de IA, como Musk, ahora tienen una mayor capacidad para manipular la forma en que se informan los acontecimientos –afirma Marcus–. Se trata de una evolución profundamente preocupante, que amenaza con dejar al público menos informado y con menos controles sobre los que ostentan el poder”.

Según Marcus, “algunas potencias políticas ya están muy al tanto de esta realidad y están intentando aprovecharla en su beneficio”. Cita que una red rusa ha producido millones de artículos que promueven la propaganda estatal y asegura que eso “ha influido en las narrativas que los principales chatbots producen en respuesta a las preguntas de los usuarios”. En una investigación en la que participó el propio Marcus, se concluyó que los modelos de ‘razonamiento’ más sofisticados pueden ser víctimas de esta especie de ciberacoso sobre los grandes modelos de lenguaje de inteligencia artificial. Y el 2026 no ha hecho más que empezar.

Jensen Huang durante la presentación en el CES de Las Vegas 
Jensen Huang durante la presentación en el CES de Las Vegas Nvidia

. Nvidia acelera con nuevos superchips. El director ejecutivo de Nvidia, Jensen Huang, anunció ayer en el Consumer Electronic Show (CES) de Las Vegas el lanzamiento de la plataforma de supercomputación Rubin, con unidades gráficas capaz de ofrecer cinco veces la potencia de cálculo del chip de última generación y que llegará seis meses antes de lo previsto. El directivo de la que ahora es la empresa más valiosa del mundo explicó que Rubin reduce los costes de los tokens de inferencia hasta 10 veces y requiere una cuarta parte de las GPU para entrenar modelos de mezcla de expertos en comparación con su actual plataforma Blackwell. Huang anunció también el procesador Vera con 88 núcleos personalizados con el doble de rendimiento que su predecesor.

. Amazon lanza Alexa.com. La compañía Amazon ha lanzado esta semana Alexa.com, una nueva interfaz de chatbot de IA basada en el navegador web mediante a la que se accede a su nuevo asistente Alexa+, una IA que competirá con ChatGPT, Gemini, Claude y Grok. La aplicación móvil Alexa también está siendo rediseñada para dar prioridad al chatbot, centrado principalmente en la IA conversacional. Para poder utilizarla es necesario iniciar sesión con una cuenta de Amazon.

. LeCun critica a Meta. El gran experto en IA Yann LeCun, ganador del premio Turing, ha anunciado su nueva empresa de IA en una entrevista con el Financial Times en la que ha criticado a Meta después de abandonarla y a su nuevo responsable máximo de inteligencia artificial, Alexandr Wang, al que califica de “inexperto”. LeCun explica que las nuevas contrataciones que ha hecho Meta en su división de IA están “completamente obsesionadas” con los grandes modelos de lenguaje”, mientras que él sostiene que estos “son un callejón sin salida” para alcanzar la superinteligencia.

Francisco Bracero Osuna

Francisco Bracero Osuna

Ver más artículos

Licenciado en Periodismo por la UAB. Redactor de Guyana Guardian desde 1996. Ha cubierto las áreas de Política, Deportes y Comunicación. Especializado en tecnología. Autor del libro 'Bicicletas para la mente' (Península)

Etiquetas