Desde que surgieron las primeras IAs generativas de arte como Midjourney, Dall-E o Stable Diffusion, comenzó un debate ético alrededor del mundo artístico. ¿Es usar IA robar el talento de los artistas? Así lo creen muchos detractores, y no les falta razón: al final, cualquier sistema de IA se basa en lo que ya está creado para generar reversiones de la misma idea.
Gracias a este sistema, puedes pedir imágenes estilo Studio Ghibli, estilo Van Gogh o Dalí. Pero claro, con artistas ya laureados no pasa nada... ¿pero qué ocurre con aquellos que se están buscando la vida con un estilo propio que han cultivado durante años? Estos lo tienen mucho más difícil, puesto que la IA puede aprender pronto a “crear” como ellos a través de su propio arte.

El oro de Klimt en Sevilla.
Hay posibilidades
Los mejores sistemas para proteger tu arte de la IA
En busca de una solución a este debate ha surgido una fórmula que, si bien está lejos de ser algo definitivo, de momento puede “protegerte” con el robo de la IA. Se trata del Data poisoning, un término traducido como “envenenamiento de datos” que busca hackear el sistema desde dentro.
El Data poisoning se basa en insertar cambios invisibles en las imágenes que confunden los modelos de IA durante su entrenamiento. Herramientas como Nightshade, desarrollada por la Universidad de Chicago, permiten alterar tus obras de manera que la IA aprenda mal: donde antes veía un perro, ahora podría ver un gato. Donde copiaba tu estilo, ahora solo encuentra una alteración caótica de datos que hace que el sistema se vuelva loco. A diferencia de los simples filtros de estilo, el poisoning es proactivo: no solo oculta información, sino que la sabotea para confundir a la IA.
El envenenamiento digital no es la única respuesta que ha surgido a este debate ético. Se combina con escudos como Glaze (que disfraza el trazo personal), plataformas como Cara, que bloquean el scraping, e iniciativas como Do Not Train Registry, que permite a los artistas pedir expresamente quedar fuera del entrenamiento de modelos de IA.
El poisoning no es infalible, pero es lo mejor que tenemos hoy día para defender a los artistas. Si la IA puede robarte libremente, ¿qué mejor que usar su propio sistema contra ella? Mientras los tribunales debates (eternamente) sobre algo que ya nos ha pasado por encima, no nos queda otra que usar herramientas en su contra para evitar problemas de futuro.