Los actores de amenazas cibernéticas utilizan cada vez más herramientas de inteligencia artificial para mejorar la escala y la complejidad de sus ataques, según new research el Grupo de Inteligencia de Amenazas de Google. El informe muestra que tanto los grupos estatales como los criminales están integrando la IA en casi todas las etapas de un ciberataque, desde el reconocimiento hasta la exfiltración de datos.
En años anteriores, los actores de amenazas solían usar IA para ayudar con tareas básicas como escribir mensajes de phishing o recopilar información pública sobre objetivos. El último análisis de Google indica que estas actividades han evolucionado. Los atacantes están integrando la IA directamente en el malware, la infraestructura y las operaciones de comando. El informe llama a este cambio “una nueva fase operativa de abuso de IA”.
Uno de los hallazgos clave involucra el aumento del malware habilitado para IA que se basa en grandes modelos de lenguaje mientras se ejecuta. Google identificó una familia de malware llamada PROMPTFLUX que se conecta a un modelo de IA y reescribe su propio código a intervalos regulares. Esta modificación constante ayuda a evitar la detección por parte de las herramientas antivirus tradicionales que dependen de firmas fijas. Otro ejemplo, llamado PROMPTSTEAL, utiliza un modelo de IA para generar comandos para robar datos en lugar de depender de scripts escritos previamente.
Esto representa una escalada importante en el funcionamiento de las operaciones cibernéticas. La inteligencia artificial ya no se utiliza simplemente para apoyar a los atacantes, ya que se ha convertido en un componente activo de sus campañas. Los investigadores de Google señalan que algunas de estas herramientas son capaces de generar nuevo código o adaptar su comportamiento en tiempo real en función de la retroalimentación ambiental.
El mercado clandestino de herramientas cibernéticas habilitadas por IA también se está expandiendo. Google encontró anuncios en foros en ruso e inglés que ofrecían kits de phishing impulsados por IA, programas de creación de malware y herramientas de escaneo automatizado. Muchos se promocionan utilizando un lenguaje de marketing profesional que promete velocidad, eficiencia y escala. La accesibilidad de estos servicios permite a los delincuentes menos hábiles llevar a cabo operaciones complejas que antes se limitaban a grupos de piratas informáticos avanzados.
Los actores patrocinados por el estado son otro enfoque del informe. Google identificó campañas de Corea del Norte, Irán y la República Popular China que dependen en gran medida de los sistemas de IA. Estos grupos están utilizando IA generativa a lo largo de todo el ciclo de vida del ataque, incluido el reconocimiento, el phishing, la explotación y el robo de datos.
Por ejemplo, el grupo APT41, vinculado a China, ha utilizado el modelo Gemini de Google para escribir código en C++ y Go, crear marcos de comando y control ofuscados y desarrollar una infraestructura de ataque basada en la nube. Según los informes, un actor con sede en Irán conocido como APT42 utilizó un modelo de inteligencia artificial para convertir consultas en lenguaje natural en búsquedas en bases de datos, lo que le permitió vincular números de teléfono con personas y monitorear patrones de viaje. Un grupo norcoreano identificado como UNC1069 utilizó Gemini para crear archivos adjuntos de phishing en español y desarrollar herramientas para robar criptomonedas.
El informe también detalla cómo los actores de amenazas manipulan las salvaguardas de IA para obtener información restringida. Algunos atacantes se hacen pasar por investigadores, estudiantes o participantes de competencias de ciberseguridad para que sus solicitudes parezcan inofensivas. Al hacerlo, eluden los sistemas de seguridad y reciben instrucciones técnicas para crear kits de phishing, scripts maliciosos o web shells. Google señala que estas tácticas aprovechan las debilidades en la forma en que los sistemas de IA interpretan la intención.
El crecimiento de los ataques impulsados por IA presenta serios desafíos para los defensores. Los métodos de detección tradicionales basados en muestras de malware conocidas, firmas estáticas o patrones predecibles son ineficaces contra el código que cambia constantemente o se basa en indicaciones en tiempo real de modelos de IA externos. Google advierte que esta evolución hace que sea significativamente más difícil para los equipos de seguridad detectar y responder a las amenazas activas.
Al mismo tiempo, la mayor disponibilidad de herramientas habilitadas para IA está reduciendo la barrera de entrada para el cibercrimen. Las capacidades sofisticadas ya no son exclusivas de los grupos de amenazas persistentes avanzadas. Los servicios basados en suscripción y los scripts de IA prediseñados permiten a los delincuentes sin experiencia lanzar ataques creíbles con un conocimiento técnico mínimo. Esto ha aumentado tanto la frecuencia como la variedad de ataques dirigidos a gobiernos, empresas e individuos.
Google recomienda varias medidas defensivas para abordar estos desarrollos. Las organizaciones deben aplicar una autenticación sólida, adoptar la verificación multifactor y aplicar el principio de privilegios mínimos en todas las cuentas de usuario. Deben parchear rápidamente las vulnerabilidades conocidas y fortalecer las herramientas de monitoreo para identificar comportamientos anormales. Google también aconseja a los equipos de seguridad que amplíen sus planes de respuesta a incidentes para incluir amenazas habilitadas por IA e integrar fuentes de inteligencia de amenazas que rastreen la actividad relacionada con la IA en los mercados clandestinos.
El informe destaca que los defensores deben tratar las amenazas habilitadas por IA como un riesgo inmediato en lugar de una preocupación futura. La combinación de IA generativa y operaciones cibernéticas permite a los atacantes automatizar el reconocimiento, explotar vulnerabilidades más rápido y producir malware adaptativo que cambia en tiempo real. Esto requiere que las organizaciones adopten la detección proactiva, el aprendizaje continuo y la colaboración con proveedores de inteligencia confiables.
Aunque algunos programas maliciosos habilitados para IA identificados por Google permanecen en la etapa de prueba, la tendencia es clara. El uso de la inteligencia artificial en los ciberataques se está acelerando y la brecha entre el uso legítimo y el malicioso se está reduciendo. El informe pide a los defensores que prioricen la visibilidad de los flujos de trabajo de los atacantes, capaciten a los analistas para reconocer los indicadores relacionados con la IA y diseñen sistemas resilientes capaces de resistir amenazas adaptativas.
La inteligencia artificial es ahora una parte integral del panorama global de amenazas cibernéticas. Desde malware dinámico que se modifica automáticamente hasta operaciones de phishing automatizadas, los atacantes están remodelando la forma en que se desarrollan las intrusiones. Los equipos de seguridad que crean conciencia sobre el abuso de la IA, fortalecen las defensas operativas y monitorean la evolución de las herramientas habilitadas para IA estarán mejor preparados para responder a este entorno de amenazas en rápido movimiento.
