María Aperador, experta en ciberseguridad: “Con la IA pueden clonar tu voz con solo 30 segundos de audio para estafar a tus familiares”
Delincuencia
Los delincuentes se hacen pasar por alguien cercano para pedirles los datos y dinero por una supuesta emergencia
María Aperador, experta en ciberseguridad, alerta de una nueva estafa: “Los ciberdelincuentes están dando un salto a lo físico enviando cartas a casa haciéndose pasar por empresas”

La expansión de la Inteligencia Artificial está sirviendo a los ciberdelincuentes para reinventarse
La inteligencia artificial se ha convertido en una herramienta cotidiana. Su expansión en los últimos años ha hecho que mucha gente la considere básica en su día a día. Aplicaciones como ChatGPT, Gemini o Apple Intelligence ya se encuentran entre las más usadas. Y eso es algo que puede ayudar a resolver problemas y a la vez causar otros.
Ahí es donde entran los ciberdelincuentes, que utilizan cualquier método para intentar hacerse con los datos de los incautos. El problema, más allá, está en que existen programas que se hacen pasar por nuestros familiares. Y si no estamos atentos podemos acabar cayendo en una estafa de este tipo. Esto es de lo que ha alertado María Aperador, experta en ciberseguridad, en su cuenta de Instagram (@mariaperador).
Con la IA, pueden clonar tu voz con solo 30 segundos de audio para estafar a tus familiares
Al inicio del vídeo muestra una conversación de WhatsApp. El dueño del teléfono reproduce un audio supuestamente enviado por su madre. No obstante, el chico indica que su progenitora está con él. “Los ciberdelincuentes ya pueden clonar la voz de cualquier persona con tan solo 30 segundos de audio. Están utilizando esta tecnología para estafarnos”, avisa Aperador.
El procedimiento está relacionado con las redes sociales. Los delincuentes rastrean cualquier vídeo donde se pueda escuchar nuestra voz y clonarla con IA. Acto seguido, consiguen información de la familia para llamarles y hacerse pasar por nosotros. El objetivo está bastante claro: pedir dinero o una dirección por una supuesta emergencia. “La voz va a ser tan real que a nuestros familiares les va a costar darse cuenta del engaño”, dice Aperador.
Consejos para evitar caer en la trampa
Para evitar caer en este engaño, la experta en ciberseguridad da varias pautas a seguir. Lo primero es establecer algún tipo de palabra clave. Si recibimos una llamada pidiendo dinero, hay que preguntar si conoce dicho término. Después hay que hacer una rellamada a la persona que nos ha contactado si vemos algo sospechoso. Por último, hay que preguntar cosas que solo dicha persona puede saber.
Clonar tanto la voz como la imagen de alguien es conocida como deepfake. Javier Castro, director del área de ciberseguridad en Stratesys, explicó en una charla con Guyana Guardian de qué se trata: “Los deepfakes, tanto de voz como de vídeo, son los ataques más difíciles de detectar. Te pueden clonar la voz de una persona o incluso hacer un vídeo realista de una persona con solamente unos segundos de audio y una foto”.
Las advertencias constantes que hace María Aperador en Instagram están enmarcadas en un contexto de aumento de la ciberdelincuencia. Mandiant, la filial de Google para la ciberseguridad, publicó el pasado mes de abril los datos de 2024: el 55% de los ataques realizados con softwares para aprovechar las vulnerabilidades de un sistema tenían motivaciones financieras. Es un porcentaje que lleva en aumento desde 2022, cuando se encontraba en un 48%.
