Elvira Tejada, Fiscal de Sala, sobre la inteligencia artificial y la ciberdelincuencia: “La simulación de identidad se está agudizando”

Cibercriminalidad

La Inteligencia Artificial es capaz de perfeccionar estafas, suplantaciones y engaños cada vez más difíciles de detectar

Greg Hancell, experto en fraudes, sobre la nueva estafa de los códigos QR: “Un usuario no puede saber a dónde lleva hasta que ya es demasiado tarde”

Elvira Tejada, Fiscal de Sala de Cibercriminalidad Informática

Elvira Tejada, Fiscal de Sala de Cibercriminalidad Informática

Agencia Española de Protección de Datos (YouTube)

La creciente sofisticación de la Inteligencia Artificial (IA) abre nuevos frentes en la lucha contra la ciberdelincuencia. Así lo advierte Elvira Tejada, Fiscal de Sala y coordinadora nacional contra la cibercriminalidad informática, en una entrevista para el canal de YouTube de la Agencia Española de Protección de Datos (AEPD). Las herramientas capaces de imitar voces, rostros y comportamientos humanos amplían el abanico de los delitos digitales; y, en sus palabras, “la simulación de identidad se está agudizando”.

No cabe duda de que las nuevas tecnologías suponen una ventaja en muchos aspectos, pero también implican riesgos. Por el momento, el debate en torno a sus posibilidades y peligros se mantiene en el aire; mientras que los organismos estatales se centran en prevenir las actividades fraudulentas. Para ello, la difusión es clave. Entender el alcance de la red es el primer paso para favorecer un entorno digital seguro.

La suplantación de identidad se está agudizando

Posibilidades y peligros de la IA

“¿Cómo estáis viviendo esta realidad desde la Fiscalía?”, le plantea el adjunto de la AEPD, Francisco Pérez Bes, a Elvira Tejada. Su respuesta es clara: “Basta con recurrir a la Inteligencia Artificial para simular que la persona con la que está hablando la víctima es un familiar o no necesariamente un familiar… Una persona a lo mejor conocida del mundo de las finanzas que le da garantías para engañarle muy fácilmente y convencerle para realizar una inversión”.

De acuerdo con el Observatorio Español de Delitos Informáticos (OEDI), en el año 2023 se produjeron 472.125 ciberdelitos. De todos ellos, la gran mayoría (427.448) estuvieron relacionados con prácticas fraudulentas. Hablamos de técnicas de ingeniería social que, según el Instituto Nacional de Ciberseguridad (Incibe), consiste en “la manipulación de las personas para conseguir que realicen alguna acción sin ser conscientes de que están siendo engañados”

Lee también

De las ‘fake news’ a las ‘deepfakes’

Límites éticos de la IA en la investigación criminal

En un escenario donde los límites entre lo real y lo generado artificialmente se diluyen, esta tecnología se consolida como una herramienta capaz de perfeccionar estafas, suplantaciones y engaños cada vez más difíciles de detectar. Favorece así la desinformación general, a través de las conocidas como fake news (noticias falsas) o las deepfakes. Estas últimas se corresponden a un “tipo avanzado de contenido falso que emplea técnicas complejas para crear vídeos y audios en los que personas reales parecen decir o hacer cosas que nunca ocurrieron”, explica el Incibe.

“Es cierto que las capacidades que nos ofrecen las tecnologías también nos ayudan a investigar mejor”, prosigue Elvira Tejada. “Lo que pasa es que, por mucha capacidad que nos ofrezcan para investigar, nosotros nos tenemos que ajustar a la defensa de los derechos y las libertades fundamentales de las personas y el respeto a las garantías inherentes al Estado de Derecho; es decir, en la investigación criminal no todo vale”.

De esta forma, la experta en cibercriminalidad plantea la dualidad que existe en torno a las posibilidades informáticas y los límites éticos que su empleo supone. El camino es complejo y, mientras la Inteligencia Artificial continúa su avance, la Justicia se ve obligada a avanzar al mismo ritmo. La clave está en encontrar un equilibrio real entre innovación y protección de derechos; una tarea que exige actualización constante, recursos adecuados y un profundo debate social.

Mostrar comentarios
Cargando siguiente contenido...