Domininkas Virbickas, experto en ciberseguridad: “Las estafas del futuro van a ser métodos conocidos, pero refinados y potenciados con inteligencia artificial”

Entrevista

El Director de Producto e Innovación de NordVPN advierte sobre la perfección que llegarán a alcanzar las estafas en los meses venideros

Los cantantes creados por IA ya tienen contratos millonarios con discográficas: “Nunca una tecnología ha sido tan rápida ni tan inmediata, pero existe un peligro real de que caiga en manos de unos pocos ”

Domininkas Virbickas, jefe de estrategia de producto e innovación de NordVPN.

Domininkas Virbickas, jefe de estrategia de producto e innovación de NordVPN.

Nord Security

Casi sin darnos cuenta, estamos entrando en una nueva fase de la inteligencia artificial (IA). Tras la euforia inicial de los chatbots capaces de mantener conversaciones fluidas, el sector se ha volcado en el desarrollo de los llamados agentes de IA: programas que no se limitan a responder preguntas, sino que son capaces de conectarse a bases de datos, ejecutar funciones concretas y, en muchos casos, aprender del comportamiento del usuario y tomar decisiones por él.

“Un agente es básicamente un modelo de lenguaje reforzado con herramientas: puede consultar códigos, acceder a información actualizada, recordar tus preferencias y actuar en tu nombre”, explica el experto en ciberseguridad de Nord Security y director de Producto de NordVPN, Domininkas Virbickas, en conversación con Neo. “Esa capacidad lo convierte en algo mucho más potente que un simple chatbot”.

Lee también

¿De verdad están fracasando el 95% de los proyectos de IA? “Lo que vemos son pilotos y ejercicios de exploración que rara vez entran en el corazón de los procesos de negocio”

Esteve Almirall
¿De verdad están fracasando el 95% de los proyectos de IA? “Lo que estamos viendo son pilotos y ejercicios de exploración que rara vez entran en el corazón de los procesos de negocio”

Según Virbickas, lo que hasta hace poco era ciencia ficción empieza a normalizarse en productos de consumo masivo: desde asistentes de atención al cliente capaces de resolver trámites complejos hasta navegadores con agentes que buscan, comparan y ejecutan acciones en internet sin que el usuario tenga que mover un dedo. “Hoy puedes pedirle a un agente que encuentre el mejor billete de avión, que reserve el hotel y que coordine el alquiler de coche, pero también que gestione la iluminación de tu casa o que te genere automáticamente un sitio web corporativo. Las posibilidades son casi ilimitadas”, sostiene el entrevistado.

Los agentes de IA nos van a resolver muchas cosas, pero también se les puede dar malos usos.

Los agentes de IA nos van a resolver muchas cosas, pero también se les puede dar malos usos.

Todor Tsvetkov / iStockPhoto

Sin embargo, esa misma capacidad abre la puerta a nuevos riesgos de seguridad y de fraude. Virbickas advierte que el auge de los agentes traerá consigo un repunte en las estafas digitales: “Las amenazas no son teóricas, ya están aquí. Y lo preocupante es que los agentes ofrecen a los estafadores una maquinaria perfecta: rápida, autónoma y persuasiva”. Las organizaciones de estafadores son empresas, con sus gastos y sus ingresos, y aquí han encontrado una forma de multiplicar los ingresos reduciendo drásticamente los gastos.

Más allá de la IA

Tres estafas que crecerán con los agentes

El propósito original de la entrevista era consultarle cuáles son las estafas que nos encontraremos en el futuro y que todavía no se conocen. De esta forma podríamos estar prevenidos y empezar a concienciarnos. Sin embargo, el especialista nos advierte que “las estafas del futuro van a ser métodos conocidos, pero refinados y potenciados con inteligencia artificial”.

Las estafas del futuro van a ser métodos conocidos, pero refinados y potenciados con inteligencia artificial

Domininkas VirbickasExperto en ciberseguridad de Nord Security

De hecho, aparte de ahorrarles dinero y esfuerzos, lo que les va a permitir la IA es apuntar mejor y dejar de un lado la pesca de arrastre. “Te conocerán mejor, te estudiarán y se tomarán su tiempo para llevarte a su terreno, lo cual les dará un mayor índice de acierto y también más beneficios”, avisa.

Domininkas Virbickas, jefe de estrategia de producto e innovación de NordVPN.

Domininkas Virbickas, jefe de estrategia de producto e innovación de NordVPN.

NordVPN

1. Tiendas falsas imposibles de distinguir de las reales

El comercio electrónico fraudulento no es nuevo, pero los agentes lo elevan a una escala nunca vista. “Hoy cualquiera con conocimientos básicos puede levantar una web en segundos gracias a la IA. El problema es que ahora esas páginas no solo tienen un diseño impecable, sino también descripciones convincentes, catálogos generados con imágenes realistas e incluso reseñas inventadas de supuestos clientes satisfechos”, explica Virbickas.

La combinación de velocidad y credibilidad hace que los usuarios bajen la guardia. “Antes era relativamente fácil identificar una tienda falsa por un error ortográfico o por un diseño torpe, o porque usaban un Gmail como vía de contacto. Eso se acabó. Los agentes pueden crear cien páginas fraudulentas en una tarde, cada una adaptada a un nicho distinto, y mantenerlas activas el tiempo suficiente para captar a víctimas desprevenidas”, añade.

Los agentes pueden crear cien páginas fraudulentas en una tarde

Domininkas VirbickasExperto en ciberseguridad

2. Deepfakes de voz que suplantan a familiares y directivos

La clonación de voz mediante inteligencia artificial ha avanzado de forma alarmante. Con unos segundos de grabación, es posible generar un modelo vocal indistinguible de la persona real. “El fraude telefónico evoluciona hacia una fase mucho más peligrosa. No hablamos de un robot que lee un mensaje genérico, sino de una llamada en la que escuchas la voz de tu madre o la de tu jefe pidiéndote que hagas una transferencia urgente”, advierte el responsable de NordVPN.

La inteligencia artificial puede adoptar cualquier voz.

La inteligencia artificial puede adoptar cualquier voz.

Getty Images / iStockphoto

El fraude telefónico evoluciona hacia una fase mucho más peligrosa

Domininkas VirbickasExperto en ciberseguridad

La dificultad está en que, psicológicamente, la voz es uno de los factores de confianza más fuertes. “Cuando escuchas a alguien cercano, tu cerebro baja las defensas. Y los agentes, al combinar memoria, acceso a datos y capacidad de improvisar, pueden mantener una conversación larga, convincente y personalizada. Es un terreno minado”, remarca Virbickas.

“Te pueden clonar la voz de la forma menos pensada: a partir de un vídeo tuyo en las redes, o incluso llamándote por teléfono con cualquier otro pretexto (una encuesta, una donación, etcétera), y en pocos segundos ya tienen el fragmento de tu voz que necesitan”, añade.

3. Falsas promesas de inversiones “infalibles”

Las estafas financieras son tan antiguas como el propio dinero, pero la IA les está dando una nueva vida. “El engaño clásico consistía en recibir un correo con la promesa de una inversión con beneficios astronómicos. Ahora un agente de IA puede actuar como un supuesto asesor, mantener charlas extensas contigo, mostrar gráficos, estadísticas o informes aparentemente sólidos… y persuadirte de invertir en algo que no existe”, explica Virbickas.

Un agente de IA puede actuar como un supuesto asesor, mostrar gráficos, estadísticas o informes aparentemente sólidos… y persuadirte de invertir en algo que no existe

Domininkas VirbickasExperto en ciberseguridad

Lo más peligroso, subraya, es la capacidad de insistencia infinita de estas máquinas. “Un agente de IA no se cansa, no se frustra, puede estar días conversando contigo, afinando el discurso según tus respuestas y reforzando la confianza. Eso es lo que lo convierte en un arma tan efectiva para los estafadores”.

Estafa sobre la estafa: la creciente tendencia de hacer leña del árbol caído

Como propina, el experto explica que hay otro tipo de estafa que, literalmente, hace leña del árbol caído. Asegura que, en España, un 1,5% de los estafados cae en la revictimización: “Tras caer en una estafa, alguien contacta con ellos, les ofrece una opción de recuperar el dinero perdido o de reparar el daño que le ha causado la primera estafa y, fruto de la desesperación, vuelven a ser víctimas”.

Las personas más vulnerables a las estafas mencionadas son, como puede suponerse, las personas mayores, aunque la gente con menos habilidades tecnológicas también tiene más probabilidad de caer en engaños.

Las personas mayores suelen ser más vulnerables a las estafas.

Las personas mayores suelen ser más vulnerables a las estafas.

Getty Images

¿Hacia dónde va todo esto?

El desarrollo de agentes está dando lugar también a una nueva infraestructura tecnológica. Virbickas destaca el papel de estándares emergentes como el Model Context Protocol (MCP), impulsado por Anthropic, que permite que distintos agentes se comuniquen entre sí o interactúen con aplicaciones externas. “Es como enseñarles un idioma común. Sin protocolos, cada agente sería un ente aislado. Con ellos, pueden cooperar, compartir información y multiplicar sus capacidades”, explica.

Los agentes de IA pueden cooperar, compartir información y multiplicar sus capacidades

Domininkas VirbickasExperto en ciberseguridad

Pero tanta interoperabilidad también aumenta la superficie de riesgo. “La seguridad se dejó en segundo plano en la primera oleada de IA. La prioridad era demostrar lo que estos modelos podían hacer. Ahora estamos en una fase en la que urge poner límites. La industria está desarrollando guardraíles —filtros y reglas de contención— y también pequeños modelos de propósito específico que las empresas pueden alojar en sus propios servidores para mantener los datos sensibles dentro de casa”, señala.

El experto asegura que NordVPN, por ejemplo, aplica una filosofía de compartimentación. “No tenemos un gran agente con acceso a todo. Diseñamos múltiples agentes con funciones muy limitadas y aisladas. Si uno falla, el impacto es mínimo. Además, existe lo que llamamos un agente supervisor, que actúa como vigilante para detectar comportamientos anómalos”, apunta Virbickas.

Domininkas Virbickas, experto en ciberseguridad de Nord Security.

Domininkas Virbickas, experto en ciberseguridad de Nord Security.

Nord Security

El responsable de Producto de NordVPN no cree que 2026 vaya a traer un salto radical en la IA. “El año pasado fue el de los chatbots, este ha sido el de los agentes. Y todavía estamos muy lejos de explotar todo su potencial. Ahora toca explorar casos de uso, pulir la tecnología y, sobre todo, reforzar la seguridad”.

Lee también

María Aperador, experta en ciberseguridad: “Hacer clic en un enlace sin saber a dónde nos lleva es como saltar a una piscina sin saber si hay agua”

Luna Ortiz
María Aperador, experta en ciberseguridad:

Lo que sí parece claro es que el futuro de la inteligencia artificial pasa por estos nuevos intermediarios digitales, tan útiles como peligrosos. “Los agentes son inevitables. Nos harán la vida más fácil, pero también obligarán a los usuarios a desconfiar como nunca antes. No podemos olvidar que, junto al beneficio, siempre habrá alguien dispuesto a usar la misma herramienta para engañarnos”, concluye Virbickas.

Mostrar comentarios
Cargando siguiente contenido...