Geek

Jon Hernández, divulgador de Inteligencia Artificial: “A día de hoy es imposible para el ojo humano diferenciar un contenido hecho por IA o hecho por una cámara, esto no era así hace 6 meses”

Visto en TikTok

El divulgador ha lanzado una alerta contundente en el podcast 'Roca Project': la Inteligencia Artificial ha cruzado un umbral crítico.

Jon Hernández en el podcast

Jon Hernández en el podcast

Roca Project / YouTube

Vivimos en la era de la desinformación, pero lo que viene podría ser mucho más profundo y perturbador: la era de la indistinguibilidad. Jon Hernández, divulgador especializado en Inteligencia Artificial, ha expuesto en el podcast Roca Project un escenario que hasta hace poco pertenecía a la ciencia ficción: “A día de hoy es imposible, al ojo humano, diferenciar un contenido hecho con inteligencia artificial o hecho por una cámara”.

Este salto cualitativo, que él mismo califica de reciente (“esto no era así hace 6 meses”), no es una mera curiosidad tecnológica. Supone una amenaza directa a lo que conocemos como “prueba de verdad” y tiene implicaciones devastadoras para la justicia, la política y la confianza social.

Captura de vídeo
Captura de vídeoRoca Project / YouTube

“Ya no te puedes creer ningún vídeo”

El fin de la prueba de verdad. Hernández pone un ejemplo cotidiano y aterrador para ilustrar la magnitud del problema: “De repente tú y yo tenemos una discusión y yo te enseño un vídeo que demuestra lo que te acabo de decir, tú te lo crees y yo tengo razón. Ya no”.

La consecuencia inmediata es la pérdida de la prueba de verdad. El vídeo, que durante décadas ha sido la evidencia irrefutable por excelencia, ha dejado de serlo. Su valor probatorio se desvanece en un mundo donde cualquier persona puede generar una secuencia hiperrealista con unas pocas líneas de texto, utilizando tecnologías como Veo 3, Midjourney vídeo o las últimas versiones de generación de imagen.

Tokio crea un vídeo con IA para simular una erupción del Fuji
Tokio crea un vídeo con IA para simular una erupción del Fuji

La crisis judicial

El problema se agrava al trasladarlo al ámbito legal. Hernández señala que hemos llegado “al punto de que un perito judicial no puede definir si ese vídeo ha sido hecho con IA o no con IA”. Esta incapacidad técnica para discernir el origen de un contenido audiovisual abre la puerta a un caos judicial sin precedentes.

El divulgador alerta de que este escenario ya no es teórico: “En Latinoamérica estamos viendo políticos que han salido audios, filtraciones de corrupción y que están diciendo, 'no, no, eso está hecho con IA'”. Bajo el paraguas de la presunción de inocencia, la carga de la prueba se invierte de forma imposible: “Demuéstralo que no está hecho con IA. No puedes”.

Trump y Vance en un vídeo creado por inteligencia artificial
Trump y Vance en un vídeo creado por inteligencia artificialX

Frente a este desafío, el presentador del podcast vislumbra el nacimiento de una “nueva profesión, que serán los peritos de la IA”. Sin embargo, Hernández se cuestiona inmediatamente su viabilidad: ”¿Pero cómo lo van a hacer si no se puede?”.

La pregunta es el núcleo del problema. Si el contenido generado por IA no es diferente del capturado por una cámara de vídeo en términos de píxeles, sonido y flujo, cualquier método de detección se basará en buscar imperfecciones o “firmas” digitales que los propios generadores de IA se afanarán en eliminar en futuras iteraciones. Es una carrera armamentística tecnológica en la que, por ahora, la detección va por detrás.