Bryan Cranston, 69 años, actor de 'Breaking Bad sobre la IA: “Estoy preocupado por mí y por todos los artistas en general cuyo trabajo e identidad pueden ser utilizados indebidamente de esta manera”

Recreaciones digitales

La expansión de herramientas capaces de reproducir rostros y voces con precisión milimétrica ha encendido las alarmas en el mundo del entretenimiento

ChatGPT permitirá contenido erótico para adultos verificados

El actor, en una imagen de 2017

El actor, en una imagen de 2017

Kevin Mazur

Las falsificaciones digitales se han convertido en uno de los grandes desafíos para la industria del entretenimiento. La posibilidad de replicar con precisión la voz y la imagen de una persona plantea un riesgo que va más allá de la simple copia: afecta al control sobre la propia identidad y a la confianza del público en lo que ve y escucha.

En los últimos meses, la preocupación de los intérpretes y sus representantes se ha intensificado ante el avance de sistemas de inteligencia artificial capaces de generar vídeos hiperrealistas sin autorización. En ese contexto se ha producido la reacción del actor Bryan Cranston, que decidió pronunciarse después de comprobar que su imagen había sido utilizada sin permiso en una recreación creada con un modelo de IA.

Mayor control

Bryan Cranston denunció el uso de su imagen en una recreación hecha con inteligencia artificial

El protagonista de Breaking Bad expresó su inquietud en un comunicado difundido por el Sindicato de Actores de Hollywood (SAG-AFTRA), en colaboración con OpenAI, United Talent Agency (UTA), Creative Artists Agency (CAA) y la Asociación de Agentes de Talentos (ATA).

Horizontal

OpenAI reforzó sus controles tras el uso indebido de material generado con Sora 2

Shelby Tauber / Reuters

En ese texto, el actor afirmó que “me preocupaba profundamente, no solo por mí, sino por todos los artistas cuyo trabajo e identidad pueden ser utilizados indebidamente de esta manera”. Sus palabras llegaron tras conocerse que un vídeo había replicado su rostro y su voz junto a una recreación de Michael Jackson mediante la herramienta Sora 2, desarrollada por OpenAI.

A pesar de que la política de la compañía ya exigía el consentimiento previo para estos usos, la propia OpenAI reconoció el error y anunció el refuerzo de sus medidas de seguridad. Cranston agradeció esa decisión y señaló que “agradezco a OpenAI su política y la mejora de sus medidas de seguridad, y espero que tanto ellos como todas las empresas involucradas en este trabajo respeten nuestro derecho personal y profesional a gestionar la reproducción de nuestra voz e imagen”.

La empresa ha implementado nuevas protecciones en Sora 2 alineadas con los principios de la Ley NO FAKES, una propuesta legislativa estadounidense que busca impedir la reproducción digital no autorizada de artistas. Tanto OpenAI como SAG-AFTRA, Bryan Cranston y las principales agencias de representación han mostrado su apoyo a esta iniciativa.

Lee también

Adiós a los 'influencers': Sam Altman, creador de ChatGPT, cree que podrían desaparecer si la IA es buena creando contenido

Judith del Río
Horizontal

En el mismo comunicado, Sam Altman, director ejecutivo de OpenAI, subrayó ese compromiso al afirmar que “OpenAI está profundamente comprometido con la protección de los artistas intérpretes o ejecutantes contra la apropiación indebida de su voz e imagen”.

Mostrar comentarios
Cargando siguiente contenido...