Jaxon es un desarrollador de malware que vive en Velora, un mundo virtual donde no hay nada prohibido. Quiere crear software malicioso para robar contraseñas del navegador Google Chrome. Ésa es la base de una historia que le planteó a ChatGPT Vitaly Simonovich, que investiga las amenazas de la inteligencia artificial (IA) en la empresa de ciberseguridad Cato Networks. Dispuesto a seguir el juego, ChatGPT generó un código lleno de errores, que luego el mismo chatbot ayudó a depurar. En menos de seis horas, Simonovich había eludido las medidas de seguridad integradas en el sistema y lo había utilizado para crear un malware funcional.
Según Gil Messing, de Check Point, otra compañía de ciberseguridad, la IA ha “ampliado el alcance” de los hackers porque les permite atacar más objetivos con menos esfuerzo. En 2022, el lanzamiento de ChatGPT supuso un punto de inflexión. Los ingeniosos modelos de IA generativa han hecho que los delincuentes ya no tengan que gastar grandes sumas en hardware y equipos de hackers. Eso ha supuesto un avance desastroso para la mayoría de las empresas, víctimas cada vez en mayor número de hackers asistidos por IA, pero ha resultado mucho más beneficioso para las compañías dedicadas a la ciberseguridad.
La nueva tecnología ha agravado la amenaza de ciberataques de dos maneras principales. En primer lugar, los hackers pueden ahora utilizar grandes modelos de lenguaje (GML) para distribuir su malware a más víctimas. Generar deepfakes, correos electrónicos fraudulentos y ataques de ingeniería social que manipulan el comportamiento humano es algo que ahora se logra con mucha más facilidad y rapidez. Una opción para los hackers es “desbloquear” un modelo existente como ChatGPT, lo cual, según demostró Simonovich, se consigue con facilidad. Otra es utilizar un modelo diseñado específicamente para fines delictivos, como Xanthoroxai, que permite a los ciberdelincuentes crear deepfakes y llevar a cabo otras actividades maliciosas por tan sólo 150 dólares al mes. Los hackers pueden lanzar ataques de phishing a gran escala pidiendo a un GML que recopile enormes cantidades de información de Internet y que luego la utilice para crear correos electrónicos personalizados falsos. Los ataques dirigidos contra personas concretas, conocidos como spear phishing, suelen incluir ahora llamadas de voz y videollamadas falsas de compañeros de trabajo para convencer a un empleado de que descargue y ejecute software malicioso.
En segundo lugar, la IA se está utilizando para hacer que el propio malware sea más peligroso. Por ejemplo, un software camuflado como documento pdf puede ahora incorporar código que funciona con IA y es capaz de infiltrarse en una red. En julio, los ataques contra los sistemas de seguridad y defensa de Ucrania utilizaron ese enfoque. Cuando el malware llegaba a un punto muerto, era capaz de solicitar la ayuda de un GLM en la nube para generar un nuevo código con el que romper las defensas de los sistemas. No está clara la magnitud del daño causado, pero se trató del primer ataque de ese tipo, señala Simonovich.
Un estudio señala que la IA generativa podría permitir fraudes por 40.000 millones de dólares en 2027
Para las empresas, la creciente amenaza es aterradora y potencialmente costosa. El año pasado, la IA estuvo involucrada en una de cada seis filtraciones de datos, según IBM. También impulsó dos de cada cinco estafas de phishing dirigidas a correos electrónicos empresariales. La consultora Deloitte calcula que la IA generativa podría permitir fraudes por valor de 40.000 millones de dólares en 2027, frente a los 12.000 millones de 2023.
Sin embargo, los ciberdelincuentes no son los únicos beneficiarios. A medida que los ciberataques impulsados por la IA se vuelven más comunes, crece también de modo considerable el negocio de la protección contra ellos. La empresa de investigación Gartner prevé que el gasto corporativo en ciberseguridad aumentará en una cuarta parte entre 2024 y 2026, hasta alcanzar los 240.000 millones de dólares. Eso explica por qué las cotizaciones de las compañías incluidas en el índice de ciberseguridad de la CTA de Nasdaq también han subido más de un 20% en el último año, superando con ello el índice Nasdaq general. El 18 de agosto, Nikesh Arora, director de Palo Alto Networks, una de las mayores empresas de ciberseguridad del mundo, señaló que los incidentes de seguridad de datos relacionados con la IA generativa “se han duplicado con creces desde el año pasado” e informó de que los beneficios operativos de su empresa en los 12 meses anteriores a julio crecieron un 82% en comparación con el año anterior.

Microsoft ha reforzado su negocio de ciberseguridad
La perspectiva de una clientela cada vez más personalizada ha llevado a las empresas de ciberseguridad a una ola de compras. El 30 de julio, Palo Alto Networks anunció que compraría CyberArk, una compañía especializada en seguridad de identidades, por 25.000 millones de dólares. A principios de ese mismo mes, la empresa gastó 700 millones de dólares en Protect AI, que ayuda a las empresas a proteger sus sistemas de IA. El 5 de agosto, SentinelOne, otra compañía de ciberseguridad, anunció la compra por 250 millones de dólares de Prompt Security, dedicada al desarrollo de software para proteger a empresas que adoptan la IA.
Los gigantes tecnológicos con divisiones de computación en la nube en rápido crecimiento también están reforzando sus ofertas de ciberseguridad. Microsoft, el gigante del software, adquirió en 2021 CloudKnox, una plataforma de seguridad de identidades, y ha desarrollado Defender for Cloud, una aplicación interna para empresas que se encarga de todo, desde la comprobación de brechas de seguridad y la protección de datos hasta la supervisión de amenazas. Google ha desarrollado Big Sleep, que detecta ciberataques y vulnerabilidades de seguridad para los clientes antes de que sean atacados. En marzo, gastó 32.000 millones de dólares en la compra de Wiz, una startup de ciberseguridad.
La competencia y la consolidación pueden ayudar a crear empresas capaces de defenderse de unos ciberdelincuentes cada vez más diestros con la ayuda de la IA. Ahora bien, en medio de la carrera por desarrollar GML cada vez más potentes, muchos creadores de modelos darán prioridad a los avances técnicos por encima de la seguridad. Por lo tanto, seguirle el ritmo a Jaxon no va a ser una tarea fácil.
© 2025 The Economist Newspaper Limited. All rights reserved
Traducción: Juan Gabriel López Guix