Seguramente las personas que más están apostando por el desarrollo de la Inteligencia Artificial no tuvieron en cuenta los usos poco éticos que se le podría dar. Uno de ellos es el de poder utilizar cualquier rostro famoso y hacerlo pasar como si fuese real.
Ya ha habido múltiples denuncias relacionadas con la IA y la pornografía, con programas que reemplazan caras y los ponen en vídeos, así como las voces. No solo eso, sino que también se puede hacer para intentar estafar.
María Aperador es una experta en ciberseguridad que utiliza sus redes sociales para advertir sobre las diferentes ciberestafas que hay en Internet. En esta ocasión, ha hablado sobre una que intenta engañar con los programas de cambio de cara y voz.
La clonación de voz y rostro de Taylor Swift como ejemplo más claro
El vídeo comienza con un hombre demostrando lo fácil que es hacerse pasar por Taylor Swift. La experta en ciberseguridad explica que antes con hacer una simple videollamada se solucionaba el intento de engaño, pero ahora eso ya no sirve, la llamada 'prueba de vida'.
Aperador hace énfasis en dos trucos psicológicos que usan los ciberdelincuentes: la urgencia emocional (“te van a hacer sentir que tienes que actuar ya”) y la consecuencia de no hacerlo (“vas a perder tu dinero, tus datos, el acceso a una cuenta o lo que sea”). Por último, muestra su aplicación 'BeValk', de la que ya habló en una entrevista con La Vanguardia.
