La IA protege a los ciberdelincuentes: los ataques generados con IA borran la «huella digital» y complican la atribución
MADRID, 26 Mar. –
El uso de la inteligencia artificial (IA) generativa por parte de los ciberdelincuentes para crear todo tipo de ataques maliciosos ya es una realidad cada vez más creciente y, además de ayudar a generar ataques aumentando la precisión, también les protege borrando su «huella digital» y complicando la atribución de los ataques.
Así lo han advertido los expertos del equipo Global Research and Analysis Team (GReAT) de la compañía de ciberseguridad Kaspersky, en el marco de su informe sobre Predicciones de Amenazas Persistentes Avanzadas (APT, por sus siglas en inglés) para 2026, en el que ilustra cómo evolucionará el panorama de amenazas durante este año.
Concretamente, los expertos han detallado que uno de los factores que condicionará el sector de la ciberseguridad durante el 2026 es que cada vez será más complicado para los investigadores atribuir los ciberataques a un actor malicioso concreto.
Esto se debe a que el uso de la IA generativa no solo representa un problema a nivel de la sofisticación en las operaciones, sino que también está motivando un cambio en la «huella digital» de los atacantes, como ha especificado Kaspersky en el informe.
A la hora de generar un ciberataque, componentes como el código, el contenido de ‘phishing’ y los comentarios internos de los actores maliciosos habitualmente contienen errores o matices distintivos. Por ejemplo, rasgos lingüísticos concretos o patrones de programación determinados.
De esta forma, los analistas pueden basarse en cuestiones como el estilo de codificación o en errores característicos de los hablantes nativos de ciertos idiomas para intentar atribuir los ciberataques a grupos maliciosos o ciberdelincuentes específicos o ya conocidos.
Sin embargo, al introducir tecnología de IA generativa para la producción de los ataques, son los modelos de IA los encargados de generar desde el código malicioso hasta los correos electrónicos de ‘phishing’. Por tanto, los resultados tienden a ser «neutrales y estandarizados», eliminando por completo los errores o rasgos que podían distinguir al actor o grupo malicioso en cuestión.
Es decir, los investigadores de ciberataques ya no pueden buscar este tipo de características para intentar averiguar de dónde provienen y, cuanto mayor adopción de la IA por parte de los ciberdelincuentes «es probable que estas señales pierdan fiabilidad», como ha manifestado la compañía.
En este marco, se ha de tener en cuenta que, durante los primeros meses de 2026, se ha aumentado el uso de IA agéntica para desarrollar herramientas maliciosas avanzadas en cuestión de días, en lugar de los meses que se necesitaban anteriormente, incluyendo equipos más técnicos, como ha advertido la compañía de ciberseguridad Check Point Research.
Un ejemplo de este cambio lo ha protagonizado VoidLink, un ‘framework’ de ‘malware’ para Linux nativo en la nube que contaba con un nivel de sofisticación que parecía creado durante meses por un equipo de trabajo, ya que integraba más de 30 módulos de post-explotación, capacidades avanzadas en la nube y uso de rootkits. Sin embargo, VoidLink fue realmente creado por un único desarrollador que se apoyó en la IA agéntica.
También ha habido otros ejemplos como es el caso de Slopoly, un ‘malware’ generado con IA que se ha utilizado en campañas de extorsión a gran escala para permitir a los cibercriminales mantenerse en un servidor durante una semana.
CL24
