Durante una charla TED, el científico forense Hany Farid profesor en la Universidad de California, Berkeley y uno de los mayores referentes mundiales en análisis digital así como cofundador de GetReal Labs y consultor para gobiernos y medios, desgranó el mecanismo interno de las imágenes generadas por IA y explicó cómo es posible distinguirlas de las reales.
Cómo funciona la creación de imágenes falsas con IA
El deepfakes está en el día a día.
La IA generativa degrada cada imagen a una matriz de píxeles y luego aprende cómo revertir ese proceso para crear la imagen original. Este proceso, conocido técnicamente como difusión inversa, permite a los modelos de inteligencia artificial generar imágenes que visualmente parecen reales. Sin embargo, no se basan en las leyes físicas del mundo, sino en patrones estadísticos. Esto, según Farid, deja un rastro: un tipo de ruido visual que no se encuentra en fotografías auténticas.
Para detectarlo, su equipo emplea una técnica basada en el análisis de la transformada de Fourier del ruido residual de la imagen. Si se observan patrones en forma de estrellas, es probable que se trate de una imagen artificial. No es algo que un ojo no entrenado pueda notar fácilmente, pero matemáticamente se puede demostrar que no es natural.
El ruido visual no es la única pista. Farid señala otro tipo de anomalías aún más intuitivas: los errores en la geometría y en la proyección de sombras. La IA no comprende el mundo físico. A diferencia de una cámara, que capta la realidad conforme a leyes ópticas, la IA genera imágenes con contenido visual coherente pero físicamente erróneo.
Por ejemplo, en una supuesta fotografía de soldados secuestrados, el equipo de Farid identificó tres errores claves. Primero, las líneas paralelas en la arquitectura de la escena no convergían en un único punto de fuga, lo que es físicamente incoherente. Segundo, las sombras no coincidían con una única fuente de luz: los ángulos eran tan dispares que ningún foco real los podría haber proyectado. Y tercero, la textura del ruido residual presentaba ese patrón estrellado del que hablaba. Cuando una imagen acumula varias de estas anomalías, la probabilidad de que haya sido generada por IA es altísima. Es por eso que estas herramientas ya se están utilizando en entornos judiciales, periodísticos e institucionales para validar evidencias gráficas.
Cuatro claves para identificar imágenes falsas con IA
1Observar los patrones geométricos: líneas que no convergen, ángulos extraños o proporciones irreales pueden ser señales de alerta.
2Analizar las sombras: si no apuntan a una fuente de luz común, probablemente son falsas.
3Buscar incoherencias físicas: objetos que flotan, manos con más dedos o reflejos imposibles.
4Desconfiar del contexto: si la imagen viene sin fuente clara, es mejor asumir que podría estar manipulada.
Existen herramientas forenses, estándares de autenticación digital y profesionales comprometidos con la verdad. Sólo es sentido de usarlos con sentido crítico. La batalla contra los deepfakes es técnica, cultural y ética. Según el experto, “estamos en una guerra global por la verdad”, y saber distinguir lo real de lo falso se ha convertido en una competencia esencial para la era digital.


