Esta estafa digital está arrasando entre las personas mayores: “Si un vídeo te sorprende mucho, lo más probable es que sea falso, ya que buscan alertarnos, asustarnos o desinformarnos”

Ciberseguridad

Con el auge de la inteligencia artificial, los 'deepfakes' se han convertido en el pan de cada día de las redes sociales, pero ¿cómo podemos evitar estas estafas?

María Aperador, experta en ciberseguridad: “Cambiar las contraseñas cada tres meses ayuda, pero lo primero que debemos hacer es conocer nuestras debilidades; hay que saber por dónde nos pueden atacar”

La adicción al móvil en la madurez es una problemática emergente

Esta estafa digital está arrasando entre las personas mayores.

iStock

En los últimos años, los fraudes en Internet gracias a la inteligencia artificial han evolucionado hasta volverse cada vez más difíciles de detectar. Uno de los métodos en auge más recientes y peligrosos es el uso de deepfakes, una tecnología que permite manipular vídeos y audios con IA para crear contenido muy realista. Según un informe del Parlamento Europeo, se proyecta que en 2025 se compartirán 8 millones de deepfakes, frente a los 500.000 de 2023.

Estas estafas aprovechan la confianza que generan figuras públicas para engañar a personas con menos experiencia digital, especialmente a los mayores. De hecho, una encuesta del portal 65ymás, realizada en 2024, reveló que el 84% de las personas mayores teme caer en una estafa online, y para el 72,8% esta es su principal preocupación al navegar por internet.

Lee también

María Aperador, experta en ciberseguridad: “Cuidado si te llaman diciéndote que te van a hacer una revisión del agua, es una estafa y este es el 'modus operandi'”

Luna Ortiz
María Aperador, experta en ciberseguridad.

Un caso reciente es el de Lluís, un hombre de 82 años que casi compra un producto fraudulento debido a un vídeo manipulado. “Mi mujer tenía muchos dolores articulares y, un día, vi en Facebook un reel en el que se anunciaba una pomada que prometía aliviar el dolor. Dudé si comprarla o no… hasta se lo comenté a mi nieta, que me ayudó a ver que no era real. La verdad es que ya me había hecho ilusiones pensando que podía ser buena”, explica.

El caso de Lluís es un ejemplo reciente de una campaña fraudulenta que utiliza la imagen del doctor Pedro Cavadas para vender supuestos productos contra el dolor de articulaciones. Desde múltiples cuentas falsas en Facebook, se le posiciona como traumatólogo representante de una supuesta crema milagrosa. 

Mi mujer tenía muchos dolores articulares y, un día, vi en Facebook un reel en el que se anunciaba una pomada que prometía aliviar el dolor. Dudé si comprarla o no… hasta se lo comenté a mi nieta, que me ayudó a ver que no era real

Lluís82 años

Lo curioso es que este contenido ya fue desmentido en 2023 por el propio Cavadas (que ni siquiera es traumatólogo, como se le vende, sino cirujano), pero ahora circula nuevamente. “Me enteré de la estafa por el aluvión de consultas preguntándome por una crema que yo nunca he vendido. La voz hasta se parece a la mía y la gente pica”, contó el cirujano a La Sexta.

Hace dos años se utilizaba una web que suplantaba la identidad de Antena 3 para hacer creer que Cavadas, en una entrevista en El Hormiguero, contaba “cómo ‘poner de pie’ a quienes llevan años andando con dolor de articulaciones y huesos”. La novedad en esta estafa es la sofisticación de la falsificación mediante inteligencia artificial, imitando a la perfección la voz del profesional, así como también los gestos. 

'Deepfakes', la estafa digital en la que caen cada vez más personas mayores.

'Deepfakes', la estafa digital en la que caen cada vez más personas mayores.

Getty Images

De hecho, los vídeos promocionales mezclan vídeos reales e información verdadera con datos falsos y vídeos manipulados, mencionando complementos como el bicarbonato de sodio u hormonas como el cortisol, a la vez que se promociona la falsa crema.

Aunque Lluís no llegó a comprar el producto, aún le siguen apareciendo anuncios relacionados con esta estafa. “Si no me hubiera llegado a ayudar mi nieta, probablemente la hubiese comprado. Es que los comentarios parecen reales, como si fueran de gente de verdad que compra. Seguro que mucha gente ha caído”, nos cuenta.

Muchas personas mayores no han crecido ni se han formado en un entorno con dispositivos o medios electrónicos, por lo que no están habituadas a su uso

Adriana Ausetespecialista en derecho de familia

La abogada Adriana Auset, especialista en derecho de familia, explicó a La Vanguardia que muchas personas mayores “no han crecido ni se han formado en un entorno con dispositivos o medios electrónicos, por lo que no están habituadas a su uso”. A ello se suma su tendencia a confiar más en la información y la publicidad que reciben, lo que las convierte en un colectivo vulnerable. 

Auset subrayó que esta fragilidad, visible en casos como los falsos avisos bancarios que reciben en sus teléfonos móviles, “acentúa la necesidad de mejorar la educación digital y las medidas de protección hacia este colectivo, y dotarlos de medios suficientes para no caer en las trampas y poder navegar en internet con seguridad”.

'Deepfakes', la estafa digital en la que caen cada vez más personas mayores.

'Deepfakes', la estafa digital en la que caen cada vez más personas mayores.

iStock

Esta vulnerabilidad plantea un importante reto regulatorio, ya que, aunque la educación digital es fundamental, la legislación actual sobre desinformación se enfoca principalmente en noticias falsas y en la manipulación audiovisual tradicional.  Pero aún carece de una regulación específica para los deepfakes.

En Europa, la Ley de Servicios Digitales y la regulación de inteligencia artificial exige identificar claramente los contenidos generados o manipulados artificialmente, y obliga a las plataformas a detectar y eliminar contenidos ilícitos. Sin embargo, regular la difusión de deepfakes es complejo, porque pueden crearse y difundirse desde cualquier lugar del mundo, y cada país tiene su propia normativa.

Fíjate en los labios; si la boca no está sincronizada con el audio, probablemente sea un 'deepfake'

María Aperadorexperta en ciberseguridad

En el caso de España, se aprobó el pasado marzo el Proyecto de Ley para la protección de personas menores de edad para penalizar los deepfakes de contenido sexual o vejatorio, pero aún no hay una legislación específica sobre la desinformación. 

Para detectar deepfakes, la experta en ciberseguridad María Aperador señala cómo podemos detectar un vídeo falso: “Fíjate en los labios; si la boca no está sincronizada con el audio, probablemente sea un deepfake. Los ojos también delatan: parpadeos poco naturales o movimientos robóticos son una señal de alerta”. 

Lee también

Google alerta sobre una nueva estafa online que afecta a más de 2 millones de personas: “ten cuidado al entrar en los anuncios que ves en redes”

Álvaro Arbonés
Google está detrás de una nueva amenaza que usa promesas de IA generativa para estafar.

Además, advierte que la voz suele sonar robótica, porque, aunque imitan la original, la inteligencia artificial no logra reproducirla con total naturalidad. Su consejo final es sencillo pero valioso: “Si un vídeo te sorprende mucho, lo más probable es que sea falso, ya que buscan alertarnos, asustarnos o desinformarnos”. Además, es importante siempre verificar la fuente oficial, ya que como en el caso de la estafa de Pedro Cavadas, suelen aparecer y desaparecer los mismos vídeos una y otra vez, aunque seguramente ya estén desmentidos si son antiguos.

La amenaza no distingue edades ni perfiles, y es que vulnerabilidad ante los deepfakes no se limita a usuarios inexpertos. Figuras como el actor Keanu Reeves han denunciado campañas masivas de suplantación en redes sociales, con casi 40.000 perfiles falsos eliminados en un año. Casos así muestran que la lucha contra esta tecnología exige tanto herramientas técnicas como educación digital, especialmente para proteger a colectivos como las personas mayores. Un problema que, según los expertos, seguirá creciendo mientras la tecnología avance más rápido que la educación digital y la regulación internacional.

Mostrar comentarios
Cargando siguiente contenido...