Las falsificaciones digitales se han convertido en uno de los grandes desafíos para la industria del entretenimiento. La posibilidad de replicar con precisión la voz y la imagen de una persona plantea un riesgo que va más allá de la simple copia: afecta al control sobre la propia identidad y a la confianza del público en lo que ve y escucha.
En los últimos meses, la preocupación de los intérpretes y sus representantes se ha intensificado ante el avance de sistemas de inteligencia artificial capaces de generar vídeos hiperrealistas sin autorización. En ese contexto se ha producido la reacción del actor Bryan Cranston, que decidió pronunciarse después de comprobar que su imagen había sido utilizada sin permiso en una recreación creada con un modelo de IA.
Mayor control
Bryan Cranston denunció el uso de su imagen en una recreación hecha con inteligencia artificial
El protagonista de Breaking Bad expresó su inquietud en un comunicado difundido por el Sindicato de Actores de Hollywood (SAG-AFTRA), en colaboración con OpenAI, United Talent Agency (UTA), Creative Artists Agency (CAA) y la Asociación de Agentes de Talentos (ATA).
OpenAI reforzó sus controles tras el uso indebido de material generado con Sora 2
En ese texto, el actor afirmó que “me preocupaba profundamente, no solo por mí, sino por todos los artistas cuyo trabajo e identidad pueden ser utilizados indebidamente de esta manera”. Sus palabras llegaron tras conocerse que un vídeo había replicado su rostro y su voz junto a una recreación de Michael Jackson mediante la herramienta Sora 2, desarrollada por OpenAI.
A pesar de que la política de la compañía ya exigía el consentimiento previo para estos usos, la propia OpenAI reconoció el error y anunció el refuerzo de sus medidas de seguridad. Cranston agradeció esa decisión y señaló que “agradezco a OpenAI su política y la mejora de sus medidas de seguridad, y espero que tanto ellos como todas las empresas involucradas en este trabajo respeten nuestro derecho personal y profesional a gestionar la reproducción de nuestra voz e imagen”.
La empresa ha implementado nuevas protecciones en Sora 2 alineadas con los principios de la Ley NO FAKES, una propuesta legislativa estadounidense que busca impedir la reproducción digital no autorizada de artistas. Tanto OpenAI como SAG-AFTRA, Bryan Cranston y las principales agencias de representación han mostrado su apoyo a esta iniciativa.
En el mismo comunicado, Sam Altman, director ejecutivo de OpenAI, subrayó ese compromiso al afirmar que “OpenAI está profundamente comprometido con la protección de los artistas intérpretes o ejecutantes contra la apropiación indebida de su voz e imagen”.

