“OpenAI está llegando a acuerdos en nombre de la humanidad sin permitirnos ver el contrato ni conocer los términos”: una carta conjunta escrita por expertos de la IA advierte de la deriva de los creadores de ChatGPT

Inteligencia Artificial

Más de 100 expertos, investigadores y figuras públicas firman una carta abierta en la que acusan a OpenAI de actuar sin transparencia, comprometer su misión fundacional y tomar decisiones que afectan a toda la humanidad sin supervisión externa

“Todo adulto, toda persona trabajadora, incluso los niños, deberían usar la IA de inmediato”: Jensen Huang es la persona que más interés tiene en que la inteligencia artificial triunfe, y no lo esconde en absoluto

FILED - 25 May 2023, Bavaria, Munich: Sam Altman, CEO of OpenAI and inventor of the AI ··software ChatGPT, takes part in a panel discussion at the Technical University of Munich (TUM). Photo: Sven Hoppe/dpa

Sam Altman, CEO de OpenAI.

Sven Hoppe/dpa / Europa Press

Un grupo destacado de más de 100 voces en el ámbito de la inteligencia artificial —entre ellas personalidades como Geoffrey Hinton, Gary Marcus y Stephen Fry— ha lanzado una carta abierta cargada de preocupación sobre la deriva que está tomando OpenAI en sus nuevos modelos de inteligencia artificial.

Si  bien desde su fundación la compañía de Sam Altman se ha popularizado gracias a su visión ética de esta herramienta, las últimas decisiones empresariales habría hecho sonar las alarmas de los expertos. De este modo, varias personalidades del mundo de la tecnología se han unido para escribir este documento abierto al público.

Lee también

¿La IA te va a quitar el trabajo? Estos son los empleos más amenazados por la inteligencia artificial, según una lista oficial que ha publicado Microsoft

Víctor Endrino Cuesta
Los trabajadores de atención al cliente están amenazados por la IA.

“OpenAI está sentado en ambos lados de la mesa, en una sala de juntas cerrada, tomando decisiones en nombre de la humanidad sin permitirnos ver el contrato, conocer los términos ni firmar el acuerdo”, reza la carta.

Desde su fundación en 2015 como organización sin ánimo de lucro, OpenAI se comprometió a garantizar que la inteligencia artificial general (AGI) beneficie a toda la humanidad. Sin embargo, la deriva reciente hacia estructuras de lucro y opacidad despertó alarma entre expertos. En particular, la reciente reestructuración —que contempla desprender poder del brazo sin ánimo de lucro en favor de un modelo parcialmente lucrativo— preocupa por su potencial para diluir esos principios fundacionales. 

En 2024, se reportó que OpenAI exigía a exempleados firmar cláusulas de no desprestigio excesivas, lo que generó un fuerte rechazo y llevó a cambiar esas políticas

La carta arremete contra una decisión que, según los firmantes, se ha tomado sin transparencia y “haciendo un trato en nombre de la humanidad” sin ningún tipo de participación o rendición de cuentas. La crítica se extiende también al uso de acuerdos restrictivos que limitan la libertad de expresión de exempleados, impidiéndoles compartir información sobre riesgos o desacuerdos. En 2024, se reportó que OpenAI exigía a exempleados firmar cláusulas de no desprestigio excesivas, lo que generó un fuerte rechazo y llevó a cambiar esas políticas.

Además de la reciente carta, existen otras cartas abiertas bien conocidas en el ecosistema de la seguridad en IA. Por ejemplo, el “Pause Giant AI Experiments”, promovido por el Future of Life Institute en 2023, solicitaba una moratoria de seis meses en el entrenamiento de sistemas más potentes que GPT‑4, bajo el argumento de que estaban surgiendo riesgos difíciles de prever y controlar. Figuras como Yuval Noah Harari, Elon Musk y Stuart Russell firmaron esta iniciativa, finalmente sin éxito.

Jony Ive y Sam Altman, en el vídeo.

Jony Ive y Sam Altman.

X/Sam Altman

En paralelo, también se lanzó una carta en 2024 firmada por empleados actuales y anteriores de OpenAI y DeepMind que advirtió sobre la falta de supervisión y pidió mayores protecciones para denunciantes, entre ellas el derecho a alertar sobre riesgos sin represalias. 

Algunos de los puntos clave que los expertos demandan que OpenAI aclare incluyen:

  • ¿Mantiene el brazo sin ánimo de lucro el control sobre la dirección estratégica de la tecnología AGI?
  • ¿Existen conflictos de interés tras la reestructuración?
  • ¿Cuáles son los límites legales y operativos del nuevo modelo de gobernanza frente a su misión humanitaria?
Lee también

Sam Altman, CEO de OpenAI: “La IA ha superado por completo la mayoría de los métodos de autenticación actuales de los bancos, salvo las contraseñas. Me preocupa que tengamos una crisis de fraude por esto”

Laura Moreno
El CEO de OpenAI, Sam Altman.

Estas dudas surgen en un contexto crítico. OpenAI se prepara para lanzar GPT‑5, el modelo que podría marcar un antes y un después en potencia y autonomía. Aunque todavía no se sabe cuánto crecerá la potencia de su modelo respecto al anterior, se espera que sea un salto tan significativo como el de VEO 2 de Google al reciente VEO 3.

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...