Una batalla homérica
NEWSLETTER 'ARTIFICIAL'
Registrado por primera vez un ciberataque procedente de China llevado a cabo casi en su totalidad por una IA
Una IA ya puede llevar la mayor parte de las operaciones de un ciberataque de forma autónoma
Entre atacar con un ariete o hacerlo con un caballo de Troya, hay diferencias evidentes. Ulises no era el guerrero más hábil de la coalición griega que atacó la ciudad del rey Príamo, según el relato de Homero, pero mientras muchos combatientes se estrellaron contra sus murallas durante años sin conseguir rebasarla, el rey de Ítaca usó su inteligencia para derrotar al enemigo. Más de 3.000 años después de ese legendario conflicto, en el mundo digital los atacantes siguen empleando las mismas dos filosofías que en la antigüedad: tumbar la puerta a golpes o convencerte para que la abras tú mismo. Anthropic ha descubierto por primera vez un sofisticado ciberataque por IA que desafía la seguridad en torno a los modelos de inteligencia artificial.
Anthropic ha publicado un documento en el que explica cómo se defendió de la que cree que es la primera campaña de ciberespionaje impulsada por IA. El objetivo era una treintena de empresas tecnológicas, instituciones financieras, fabricantes de productos químicos y agencias gubernamentales. Lo que hicieron los atacantes, un grupo que la empresa de IA asegura que estaba patrocinado por el Estado chino, fue manipular mediante IA en un “grado sin precedentes” Claude Code, una herramienta de IA para generar software, con una estrategia sutil como la de Ulises.
El ataque detectado por Anthropic consistió en engañar a la IA Claude dividiendo las tareas del ciberataque en solicitudes más pequeñas “cada una de las cuales parecía legítima cuando se evaluaba de forma aislada”, sin una apariencia maliciosa. Los atacantes se presentaban como investigadores de seguridad que estaban haciendo pruebas. La compañía ha presentado este caso como el primero documentado de “un ciberataque a gran escala ejecutado sin una intervención humana sustancial”. Se estima que “la IA ejecutó de forma independiente entre el 80% y el 90% de todo el trabajo táctico, mientras que los humanos desempeñaban funciones de supervisión estratégica”.
Una IA es capaz de asumir estrategias para un ciberataque
En este caso, la IA “descubrió de forma autónoma vulnerabilidades en objetivos seleccionados por operadores humanos y las explotó con éxito en operaciones en vivo”. A continuación, la inteligencia artificial atacante llevó a cabo 2una amplia gama de actividades posteriores a la explotación”, como análisis, escalada de privilegios y acceso a datos o exfiltración de datos. Anthropic ha compartido la información sobre este ciberataque porque “tiene importantes implicaciones” y además “subraya la urgente necesidad de contar con medidas de protección”.
Al descubrir este ataque, lo que hizo Anthropic fue bloquear las cuentas desde las que procedía, ha empezado a trabajar en la creación de sistemas de detección temprana de ciberataques autónomos y está desarrollando nuevas técnicas para investigar y mitigar operaciones maliciosas a gran escala. Aunque esta compañía sólo puede centrarse en lo que ha visto por su cuenta del ciberataque a través de Claude, considera que “probablemente refleja patrones de comportamiento consistentes en los modelos de IA de vanguardia”. Nadie más ha publicado o documentado un caso parecido, así que cabe preguntarse si el de Anthropic ha sido el primero o sólo el primero que ha sido detectado y frenado.
En su informe de amenazas IA, publicado en agosto, un mes antes de este caso, Anthropic ya aseguró que la inteligencia artificial basada en agentes que ejecutan tareas de forma autónoma “se ha convertido en un arma”. “Los modelos de IA ahora se utilizan para llevar a cabo ciberataques sofisticados, no solo para asesorar sobre cómo realizarlos”. Ahora es posible que delincuentes con escasos conocimientos técnicos sean capaces de usar la IA para ejecutar acciones complejas, como los ataques de ransomware -extorsión-, que hasta hace poco requerían “años de formación”.
Un agente IA puede llevar a cabo numerosas tareas en ciberataques
“Los ciberdelincuentes y los estafadores han integrado la IA en todas las etapas de sus operaciones”, asegura Antropic. Eso quiere decir que la inteligencia artificial se utiliza para elaborar perfiles de las víctimas, analizar los datos robados, apropiarse de información de tarjetas de crédito y crear identidades falsas que permiten operaciones fraudulentas. La organización Palisade Research ha creado una especie de trampa, llamada Tarro de miel, para atraer a esos agentes IA maliciosos, como moscas, con información falsa. Se trata de servidores vulnerables que se hacen pasar por páginas web con información valiosa del gobierno y del ejército. Un caballo de Troya, pero al revés. Seguimos extrayendo lecciones de Homero.
Google lanza su IA más avanzada, Gemini 3. Desde ayer por la tarde está disponible Gemini 3, el nuevo modelo de IA de Google, que destaca por su razonamiento avanzado y comprensión profunda del contexto de las peticiones. Gemini 3 destaca por mejora su multimodalidad mejorada para analizar y procesar información tanto en texto como imágenes, vídeo, audio y código de programación de forma simultánea. El nuevo modelo tiene capacidades como agente para ejecutar tareas complejas de forma autónoma. Está integrado en el modo IA del buscador de Google.
Gemini 3, el modelo más avanzado de Google, ya está a disposición del público
. Grok 4.1, con más inteligencia emocional. XAI, la empresa de IA de Elon Musk, matriz de la red social X, ha lanzado Grok 4.1, una actualización de su mejor modelo, que se sitúa en los primeros puestos de varios rankings. Este modelo se centra en la creatividad y la inteligencia emocional más que en la capacidad de razonamiento puro. Grok 4.1 ha reducido la tasa de alucinaciones, información falsa, del 12% al 4% en comparación con su predecesor, y los errores en un 66% en las pruebas.
. Una IA que replica a personas fallecidas. Calum Worthy, un actor de Disney Channel ha lanzado 2wai, una plataforma de IA que ofrece avatares interactivos de familiares fallecidos, con los que se puede conversar de cualquier cosa. La app crea avatares holográficos a partir de unos minutos de grabación y a partir de ese momento ya se puede mantener conversaciones con ellas. La versión actual de prueba es gratuita en la App Store de Apple y tiene planes de suscripción y expansión al sistema operativo Android.