La inteligencia artificial, ‘arma de extorsión masiva’ en el 16% de los ciberataques
- Phishing más creíble, más eficaz
- El ransomware se consolida como principal amenaza
- 85 grupos activos y un ecosistema fragmentado
- Ataques más silenciosos y difíciles de detectar
- Impacto económico de dimensiones globales
- Una amenaza ligada al contexto internacional
Lejos de ser una herramienta experimental, la IA se ha convertido en una auténtica “arma de extorsión masiva”, utilizada para automatizar engaños, personalizar fraudes y multiplicar el número de víctimas.
El informe detalla que la IA se emplea sobre todo para acelerar tareas clave del ataque: búsqueda de objetivos, redacción de correos fraudulentos, adaptación del mensaje al perfil de la víctima y coordinación de campañas de chantaje. No sustituye al delincuente, pero le permite trabajar con mayor rapidez, menos errores y más alcance.
Phishing más creíble, más eficaz
Uno de los cambios más claros es la evolución del phishing, los correos electrónicos que suplantan a bancos, empresas o compañeros de trabajo. Este tipo de ataque está presente en torno al 16% de las brechas de seguridad, pero ahora presenta un nivel de sofisticación muy superior.
Gracias a la inteligencia artificial, los mensajes ya no contienen fallos de redacción evidentes ni estructuras repetitivas fáciles de detectar. Los atacantes pueden generar textos bien escritos, adaptados al lenguaje corporativo e incluso con referencias reales a la actividad de la empresa o del empleado.
El informe señala que la IA se utiliza para crear campañas “dinámicas”, ajustadas al perfil de la víctima. Es decir, un mismo grupo puede lanzar miles de correos distintos, cada uno personalizado, lo que aumenta significativamente las probabilidades de éxito.
El ransomware se consolida como principal amenaza
El secuestro de datos sigue siendo el problema central. En 2025, el ransomware está implicado en el 44% de las brechas de seguridad, frente al 32% del año anterior. Solo en el tercer trimestre se contabilizaron 1.592 víctimas publicadas en páginas de filtración de datos, una media de más de 500 al mes.
Pero la clave ya no está solo en bloquear archivos. El informe destaca la consolidación de la extorsión basada en el robo y filtración de información sensible. Los atacantes acceden a los sistemas, copian documentos estratégicos y amenazan con publicarlos si no se paga.
La inteligencia artificial facilita esta tarea al permitir clasificar automáticamente grandes volúmenes de documentos y localizar los más delicados, como contratos, datos personales o estrategias internas.
85 grupos activos y un ecosistema fragmentado
Otro dato relevante es la proliferación de actores. En el tercer trimestre de 2025 se identificaron al menos 85 grupos activos dedicados al secuestro y extorsión de datos, la cifra más alta registrada hasta ahora.
Este aumento no significa necesariamente mayor capacidad técnica global, pero sí una mayor dispersión del riesgo. Grupos más pequeños pueden utilizar herramientas automatizadas y modelos de “servicio” para lanzar ataques sin necesidad de desarrollar tecnología propia.
La inteligencia artificial encaja en este contexto como herramienta transversal: reduce la barrera técnica y facilita que nuevos actores entren en el mercado delictivo.
Ataques más silenciosos y difíciles de detectar
El informe también subraya un cambio en la lógica del atacante. En lugar de generar grandes interrupciones visibles, muchos grupos priorizan intrusiones discretas y prolongadas en el tiempo, utilizando cuentas legítimas o servicios habituales en la nube.
Este enfoque reduce el “ruido” técnico y aumenta el tiempo de permanencia dentro del sistema comprometido. La IA contribuye a este modelo porque permite automatizar el reconocimiento interno, analizar comportamientos y ajustar el movimiento dentro de la red.
Impacto económico de dimensiones globales
El coste del cibercrimen en 2025 se estima en 10,5 billones de dólares anuales, una cifra que confirma su dimensión estructural. El coste medio total por incidente supera los 5 millones de dólares, incluyendo interrupciones del servicio, recuperación técnica y daños reputacionales.
El informe añade que el uso malicioso de inteligencia artificial puede incrementar el coste medio de una brecha en cerca de 193.000 dólares adicionales, y que la utilización no supervisada de herramientas de IA dentro de las organizaciones puede elevar aún más el impacto económico.
En contraste, las empresas que aplican medidas de seguridad integradas desde el diseño y utilizan análisis avanzado para detectar amenazas logran reducir significativamente el coste final.
Una amenaza ligada al contexto internacional
La inteligencia artificial no solo se utiliza con fines económicos. El documento señala que también se integra en campañas de espionaje y desinformación dentro de un entorno geopolítico cada vez más tenso.
El ciberespacio se ha consolidado como un ámbito habitual de presión estratégica entre Estados. En ese escenario, la IA actúa como multiplicador: reduce tiempos de preparación, amplifica mensajes y facilita operaciones coordinadas.
