Neo

Sam Altman, el director ejecutivo de OpenAI, reconoce que las versiones de ChatGPT que están creando pierden excelencia de forma gradual: “Creo que lo hemos estropeado”

A peor

La jornada se enfocó en exhibir avances técnicos y de crecimiento, relegando la redacción a una posición secundaria.

OpenAI se juega el todo por el todo en 2026

OpenAI sacrifica la fluidez por mejorar el razonamiento del modelo

OpenAI sacrifica la fluidez por mejorar el razonamiento del modelo

Jose Luis Magana / Ap-LaPresse

Las renovaciones de un dispositivo tecnológico habitualmente despiertan la creencia de que el rendimiento será superior: mayor agilidad, exactitud incrementada y una facultad más amplia para comprender a las personas. Tal concepto se asume implícitamente con cada nueva versión de ChatGPT, el cual asegura progresos constantes en el procesamiento lingüístico y su aplicación cotidiana. No obstante, el avance más actual no ha recorrido la senda convencional y ha propiciado un debate acerca de las fronteras de la inteligencia artificial.

El director ejecutivo de OpenAI, Sam Altman, admitió que GPT-5.2 presenta una capacidad lingüística menor en comparación con la versión previa. Durante una reunión con programadores, confesó que “la fastidiamos” y señaló que las futuras actualizaciones “serán mucho mejores al escribir que la 4.5”. Comentó que la empresa dio preferencia a distintos aspectos del sistema, obteniendo desenlaces variados.

Peor rendimiento

Sam Altman admite errores y acepta que la transición de versión no fue exitosa.

Durante el debut de GPT-5.2, el interés se concentró en sus progresos tecnológicos. OpenAI enfatizó optimizaciones en lógica, programación y labores de ingeniería, dejando en un nivel secundario su destreza literaria y fluidez narrativa. Dicha tendencia fue visible en las exhibiciones, más centradas en tablas de datos y operaciones complejas que en la redacción o la inventiva.

El propio Altman admite que fue un error de prioridades
El propio Altman admite que fue un error de prioridadesEduardo Parra - Europa Press / Europa Press

Los ensayos con usuarios revelaron dificultades manifiestas en la gestión de contenidos reales. La herramienta perdía detalles, decodificaba erróneamente las menciones e insertaba precisiones apócrifas en escritos como contratos o informes largos. En escenarios básicos, el registro se tornaba insípido y las traslaciones, poco rigurosas, lo que llevó a gran parte del público a sentir que el asistente había empeorado.

No da la talla

Un asunto (malogrado) de preferencias

Este asunto genera una discusión acerca de la armonía entre la destreza tecnológica y la fluidez lingüística. La incertidumbre reside en si los sistemas más punteros lograrán conservar un rendimiento elevado en cada campo o si sobresalir en una faceta conlleva sacrificar rendimiento en las demás. Dicho conflicto está presente en toda la industria, la cual intenta optimizar el entendimiento sin mermar la facultad de expresión.

El experto Mehul Gupta señaló en su bitácora que las regresiones resultaban “claros incluso en tareas básicas”. De acuerdo con sus palabras, la plataforma funcionaba de manera errática y perdía la fluidez alcanzada en ediciones previas. Vinculó dichas fallas a una modificación en los objetivos durante la creación del modelo.

Altman detalló que una sección del personal de OpenAI enfocó su trabajo en optimizar la capacidad deductiva y el manejo de dilemas complicados. “Tenemos recursos limitados y a veces atendemos un aspecto y dejamos otro”, comentó. Según su opinión, dicha estrategia facilitó progresos tecnológicos significativos, aunque sacrificando la soltura verbal que definía a las ediciones previas.