¿Adiós al mayor dilema de la IA? “El 'Data posioning' engaña a la IA para que aprenda mal: donde antes veía un perro, ahora podría ver un gato”

Ia contra IA

El 'Data poisoning' es un sistema que se basa en insertar cambios invisibles en las imágenes que confunden los modelos de IA durante su entrenamiento

Robo de arte.

Robo de arte.

Getty Images

Desde que surgieron las primeras IAs generativas de arte como Midjourney, Dall-E o Stable Diffusion, comenzó un debate ético alrededor del mundo artístico. ¿Es usar IA robar el talento de los artistas? Así lo creen muchos detractores, y no les falta razón: al final, cualquier sistema de IA se basa en lo que ya está creado para generar reversiones de la misma idea.

Gracias a este sistema, puedes pedir imágenes estilo Studio Ghibli, estilo Van Gogh o Dalí. Pero claro, con artistas ya laureados no pasa nada... ¿pero qué ocurre con aquellos que se están buscando la vida con un estilo propio que han cultivado durante años? Estos lo tienen mucho más difícil, puesto que la IA puede aprender pronto a “crear” como ellos a través de su propio arte.

El oro de Klimt en Sevilla.

El oro de Klimt en Sevilla.

Getty Images

Hay posibilidades

Los mejores sistemas para proteger tu arte de la IA

En busca de una solución a este debate ha surgido una fórmula que, si bien está lejos de ser algo definitivo, de momento puede “protegerte” con el robo de la IA. Se trata del Data poisoning, un término traducido como “envenenamiento de datos” que busca hackear el sistema desde dentro. 

El Data poisoning se basa en insertar cambios invisibles en las imágenes que confunden los modelos de IA durante su entrenamiento. Herramientas como Nightshade, desarrollada por la Universidad de Chicago, permiten alterar tus obras de manera que la IA aprenda mal: donde antes veía un perro, ahora podría ver un gato. Donde copiaba tu estilo, ahora solo encuentra una alteración caótica de datos que hace que el sistema se vuelva loco. A diferencia de los simples filtros de estilo, el poisoning es proactivo: no solo oculta información, sino que la sabotea para confundir a la IA.

Lee también

“El mundo sufre una grave escasez de trabajadores humanos y tendremos que pagar a los robots para que trabajen”

Judith R. Iglesias
Jensen Huang, CEO de Nvidia, durante su intervención en la GTC 2025

El envenenamiento digital no es la única respuesta que ha surgido a este debate ético. Se combina con escudos como Glaze (que disfraza el trazo personal), plataformas como Cara, que bloquean el scraping, e iniciativas como Do Not Train Registry, que permite a los artistas pedir expresamente quedar fuera del entrenamiento de modelos de IA.

El poisoning no es infalible, pero es lo mejor que tenemos hoy día para defender a los artistas. Si la IA puede robarte libremente, ¿qué mejor que usar su propio sistema contra ella? Mientras los tribunales debates (eternamente) sobre algo que ya nos ha pasado por encima, no nos queda otra que usar herramientas en su contra para evitar problemas de futuro.

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...