¿Serías capaz de distinguir una estafa creada por inteligencia artificial? No te confíes porque las ciberestafas han entrado ya, por desgracia, en una nueva fase gracias a la llegada de la inteligencia artificial y a la viralidad que ofrecen plataformas como TikTok.
Lo que antes se limitaba a anuncios mal diseñados, sms con faltas de ortografía o perfiles sospechosos en redes sociales, ahora se han convertido en sofisticadas campañas capaces de engañar incluso a usuarios formados en ciberseguridad.
Nuevas estafas generadas con IA a través de TikTok
María Aperador, especialista en ciberseguridad y autora de Mentalidad Injaqueable, ha querido hablar sobre este tipo de estafas advirtiendo sobre que estamos ya en un escenario “sin punto de retorno”. Después de que una usuaria fuera estafada y se pusiera en contacto con ella, decidió investigar. La víctima había comprado un supuesto peluche inteligente que aparecía en anuncios de TikTok. “Era un koala que se movía, te abrazaba y te decía: ‘Te ayuda a reducir el estrés, soy mejor que tu último terapeuta’”, explica. Todo el anuncio estaba hecho con inteligencia artificial, el propio peluche era falso y hasta la persona que salía con el koala.
La gente que caía en la estafa, pagaba por el koala en tiendas como Temu o Amazon, pero el producto nunca llegaba o les llegaba algo muy distinto. Pero eso no era lo peor. Lo más grave es que para comprarlo, entregaban sus datos personales y bancarios.
Los estafadores simulan una pagina de Temu para vender un peluche
La experta asegura que esta técnica de crear productos inexistentes mediante vídeos generados con IA se está extendiendo rápidamente por internet. Pero la estafa no se queda ahí. Siguiendo con su investigación se encontró con otro anuncio sospechoso. Esta vez era una señora mayor haciendo collares, llorando a cámara. “Esa mujer tampoco existía, era inteligencia artificial”, cuenta. El vídeo apelaba todo el rato a la empatía y la solidaridad: una pensión insuficiente, la necesidad de llegar a fin de mes, collares artesanales que supuestamente ella misma fabricaba. “Tú veías la imagen y no tenías narices de ver que estaba hecha con IA”, afirma Aperador.
El modus operandi es siempre el mismo: un vídeo emocional, convincente y generado con IA, que te lleva a un enlace de una tienda online falsa donde los usuarios introducen sus datos sin sospechar. El daño no son solo los 20 o 30 euros perdidos: “¿Qué es lo que realmente quieren? Los datos. Porque hoy en día los datos son oro”, se lamenta la experta.
A partir de los datos surgen nuevas estafas
Con esas bases de datos, los estafadores crean perfiles completos: direcciones, cuentas bancarias filtradas, preferencias personales, incluso coincidencias con datos de aplicaciones de citas o servicios energéticos.
Y aquí la IA juega un papel crucial ya que permite combinar todos esos datos de manera mucho más precisa para llevar a cabo las estafas. Según investigaciones recientes, los ciberdelincuentes ya utilizan modelos de IA para generar miles de variantes de la misma estafa, personalizar correos fraudulentos y cruzar datos procedentes del mercado negro. Así, pueden fabricar mensajes que parecen escritos específicamente para la víctima: “Oye, pues vives en tal sitio…, etc, y bajo ese pretexto te monto un escenario que dices: ‘Es que esto es real porque sabe mi nombre, sabe dónde vivo, sabe lo que me gusta’”, explica Aperador.
La ciberexperta insiste en que incluso los usuarios más precavidos pueden caer si no son conscientes del alcance que pueden tener estas técnicas generadas con IA. “Necesitamos darle tres vueltas de rosca más a la cabeza para ver qué es lo que realmente están queriendo de nosotros”, avisa.
Y es que la recomendación es clara: desconfiar de ofertas demasiado buenas, evitar comprar a través de anuncios en redes sociales y, sobre todo, entender que en la era de la IA, cualquier cara, cualquier historia y cualquier producto puede ser completamente falso.

