Un grupo destacado de más de 100 voces en el ámbito de la inteligencia artificial —entre ellas personalidades como Geoffrey Hinton, Gary Marcus y Stephen Fry— ha lanzado una carta abierta cargada de preocupación sobre la deriva que está tomando OpenAI en sus nuevos modelos de inteligencia artificial.
Si bien desde su fundación la compañía de Sam Altman se ha popularizado gracias a su visión ética de esta herramienta, las últimas decisiones empresariales habría hecho sonar las alarmas de los expertos. De este modo, varias personalidades del mundo de la tecnología se han unido para escribir este documento abierto al público.
“OpenAI está sentado en ambos lados de la mesa, en una sala de juntas cerrada, tomando decisiones en nombre de la humanidad sin permitirnos ver el contrato, conocer los términos ni firmar el acuerdo”, reza la carta.
Desde su fundación en 2015 como organización sin ánimo de lucro, OpenAI se comprometió a garantizar que la inteligencia artificial general (AGI) beneficie a toda la humanidad. Sin embargo, la deriva reciente hacia estructuras de lucro y opacidad despertó alarma entre expertos. En particular, la reciente reestructuración —que contempla desprender poder del brazo sin ánimo de lucro en favor de un modelo parcialmente lucrativo— preocupa por su potencial para diluir esos principios fundacionales.
En 2024, se reportó que OpenAI exigía a exempleados firmar cláusulas de no desprestigio excesivas, lo que generó un fuerte rechazo y llevó a cambiar esas políticas
La carta arremete contra una decisión que, según los firmantes, se ha tomado sin transparencia y “haciendo un trato en nombre de la humanidad” sin ningún tipo de participación o rendición de cuentas. La crítica se extiende también al uso de acuerdos restrictivos que limitan la libertad de expresión de exempleados, impidiéndoles compartir información sobre riesgos o desacuerdos. En 2024, se reportó que OpenAI exigía a exempleados firmar cláusulas de no desprestigio excesivas, lo que generó un fuerte rechazo y llevó a cambiar esas políticas.
Además de la reciente carta, existen otras cartas abiertas bien conocidas en el ecosistema de la seguridad en IA. Por ejemplo, el “Pause Giant AI Experiments”, promovido por el Future of Life Institute en 2023, solicitaba una moratoria de seis meses en el entrenamiento de sistemas más potentes que GPT‑4, bajo el argumento de que estaban surgiendo riesgos difíciles de prever y controlar. Figuras como Yuval Noah Harari, Elon Musk y Stuart Russell firmaron esta iniciativa, finalmente sin éxito.
Jony Ive y Sam Altman.
En paralelo, también se lanzó una carta en 2024 firmada por empleados actuales y anteriores de OpenAI y DeepMind que advirtió sobre la falta de supervisión y pidió mayores protecciones para denunciantes, entre ellas el derecho a alertar sobre riesgos sin represalias.
Algunos de los puntos clave que los expertos demandan que OpenAI aclare incluyen:
- ¿Mantiene el brazo sin ánimo de lucro el control sobre la dirección estratégica de la tecnología AGI?
- ¿Existen conflictos de interés tras la reestructuración?
- ¿Cuáles son los límites legales y operativos del nuevo modelo de gobernanza frente a su misión humanitaria?
Estas dudas surgen en un contexto crítico. OpenAI se prepara para lanzar GPT‑5, el modelo que podría marcar un antes y un después en potencia y autonomía. Aunque todavía no se sabe cuánto crecerá la potencia de su modelo respecto al anterior, se espera que sea un salto tan significativo como el de VEO 2 de Google al reciente VEO 3.


