Las estafas con voces clonadas de familiares por IA crecen en España: alertas para detectarlas y protegerse
Estafas
Ante el alto porcentaje de estafas a través de la IA, varias entidades bancarias han compartido algunos consejos para tratar de evitarlas
Alertan de una estafa que suplanta a Hacienda a través de correos falsos: “Obtienen las claves de acceso del afectado para realizar acciones en su nombre”

'Deepfakes', la estafa digital en la que caen cada vez más personas mayores
Una llamada entra en el móvil. Al otro lado, una voz conocida suena nerviosa y pide ayuda urgente. Dice que ha tenido un problema y necesita dinero cuanto antes. La voz parece la de un hijo, una pareja o un amigo cercano. Pero no lo es. Es un clon generado con inteligencia artificial.
La inteligencia artificial se ha convertido en una herramienta habitual para estafas cada vez más sofisticadas, que afectan tanto a particulares como a empresas. Los delincuentes aprovechan la tecnología de los llamados deepfakes —vídeos, imágenes o audios manipulados con IA— para generar mensajes sumamente creíbles.
¿Cómo lo hacen?
El proceso que siguen los ciberdelincuentes suele ser sencillo. Primero consiguen una muestra de la voz de la persona que quieren suplantar. Puede estar en un vídeo de redes sociales, en un audio de WhatsApp o en una llamada que aprovechan para grabar.
Después, las herramientas de IA analizan esa muestra y generan un clon con rasgos muy parecidos a la voz original. A partir de ahí, escriben pequeños guiones para crear mensajes breves y convincentes que envían por aplicaciones móviles o utilizan en llamadas telefónicas.

La clave del engaño está en la urgencia y en la conexión emocional. El mensaje suele ser angustioso: un accidente, un problema legal, una situación inesperada que requiere dinero inmediato.
CaixaBank advierte de que detectar una voz clonada no es fácil, especialmente cuando el audio es corto. Aun así, pueden aparecer señales como pausas extrañas, entonaciones poco naturales o frases repetitivas. Los delincuentes, para disimularlo, añaden ruido de fondo que dificulta percibir estos fallos.
El Instituto Nacional de Ciberseguridad (INCIBE) recomienda acordar con familiares y personas de confianza una palabra clave o contraseña que deba utilizarse en cualquier comunicación sospechosa. McAfee propone además hacer preguntas personales durante la llamada, como fechas o detalles familiares, que un estafador difícilmente podrá responder con naturalidad.
Más recomendaciones para combatir este tipo de estafas
Mantener la calma es clave. Estas llamadas buscan provocar nerviosismo para que la víctima actúe sin pensar. Ante la duda, lo más recomendable es colgar y verificar la identidad llamando al número habitual de esa persona o contactando con el banco a través de sus canales oficiales.
BBVA añade otras pautas: desconfiar de números desconocidos, activar el doble factor de autenticación, evitar el uso de asistentes de voz en lugares públicos y configurar estos dispositivos para que solo respondan a voces registradas.
También aconseja limitar la información pública en redes sociales, mantener los dispositivos actualizados y contar con antivirus. La verificación y la prudencia se convierten en la mejor defensa frente a estas nuevas estafas digitales que, por desgracia, están a la orden del día.
