Os agentes de ameaças cibernéticas estão usando cada vez mais ferramentas de inteligência artificial para melhorar a escala e a complexidade de seus ataques, de acordo new research com o Google Threat Intelligence Group. O relatório mostra que grupos criminosos e apoiados pelo Estado estão agora integrando a IA em quase todos os estágios de um ataque cibernético, desde o reconhecimento até a exfiltração de dados.
Nos primeiros anos, os agentes de ameaças normalmente usavam a IA para ajudar em tarefas básicas, como escrever mensagens de phishing ou coletar informações públicas sobre os alvos. A análise mais recente do Google indica que essas atividades evoluíram. Os invasores estão incorporando IA diretamente em malware, infraestrutura e operações de comando. O relatório chama essa mudança de “uma nova fase operacional do abuso da IA”.
Uma das principais descobertas envolve o surgimento de malware habilitado para IA que depende de grandes modelos de linguagem enquanto é executado. O Google identificou uma família de malware chamada PROMPTFLUX que se conecta a um modelo de IA e reescreve seu próprio código em intervalos regulares. Essa modificação constante ajuda a evitar a detecção por ferramentas antivírus tradicionais que dependem de assinaturas fixas. Outro exemplo, chamado PROMPTSTEAL, usa um modelo de IA para gerar comandos para roubar dados em vez de depender de scripts pré-escritos.
Isso representa uma grande escalada na forma como as operações cibernéticas funcionam. A inteligência artificial não está mais sendo usada simplesmente para apoiar os invasores, pois se tornou um componente ativo de suas campanhas. Os pesquisadores do Google observam que algumas dessas ferramentas são capazes de gerar novos códigos ou adaptar seu comportamento em tempo real com base no feedback ambiental.
O mercado clandestino de ferramentas cibernéticas habilitadas para IA também está se expandindo. O Google encontrou anúncios em fóruns em russo e inglês oferecendo kits de phishing com inteligência artificial, programas de criação de malware e ferramentas de verificação automatizadas. Muitos são promovidos usando uma linguagem de marketing profissional que promete velocidade, eficiência e escala. A acessibilidade desses serviços permite que criminosos menos qualificados realizem operações complexas que antes eram limitadas a grupos de hackers avançados.
Atores patrocinados pelo Estado são outro foco do relatório. O Google identificou campanhas da Coreia do Norte, Irã e República Popular da China que dependem fortemente de sistemas de IA. Esses grupos estão usando IA generativa em todo o ciclo de vida do ataque, incluindo reconhecimento, phishing, exploração e roubo de dados.
Por exemplo, o grupo APT41, vinculado à China, usou o modelo Gemini do Google para escrever código em C++ e Go, criar estruturas de comando e controle ofuscadas e desenvolver infraestrutura de ataque baseada em nuvem. Um ator baseado no Irã conhecido como APT42 supostamente usou um modelo de IA para transformar consultas de linguagem natural em pesquisas de banco de dados, permitindo vincular números de telefone a indivíduos e monitorar padrões de viagem. Um grupo norte-coreano identificado como UNC1069 usou o Gemini para criar anexos de phishing em espanhol e desenvolver ferramentas para roubar criptomoedas.
O relatório também detalha como os agentes de ameaças manipulam as salvaguardas da IA para obter informações restritas. Alguns invasores se apresentam como pesquisadores, estudantes ou participantes de competições de segurança cibernética para fazer com que suas solicitações pareçam inofensivas. Ao fazer isso, eles ignoram os sistemas de segurança e recebem instruções técnicas para criar kits de phishing, scripts maliciosos ou shells da web. O Google observa que essas táticas aproveitam as fraquezas na forma como os sistemas de IA interpretam a intenção.
O crescimento dos ataques orientados por IA apresenta sérios desafios para os defensores. Os métodos tradicionais de detecção baseados em amostras de malware conhecidas, assinaturas estáticas ou padrões previsíveis são ineficazes contra códigos que mudam constantemente ou dependem de prompts em tempo real de modelos de IA externos. O Google alerta que essa evolução torna significativamente mais difícil para as equipes de segurança detectar e responder a ameaças ativas.
Ao mesmo tempo, a maior disponibilidade de ferramentas habilitadas para IA está reduzindo a barreira de entrada para o crime cibernético. Os recursos sofisticados não são mais exclusivos de grupos avançados de ameaças persistentes. Serviços baseados em assinatura e scripts de IA pré-criados permitem que criminosos inexperientes lancem ataques confiáveis com conhecimento técnico mínimo. Isso aumentou a frequência e a variedade de ataques direcionados a governos, empresas e indivíduos.
O Google recomenda várias medidas defensivas para lidar com esses desenvolvimentos. As organizações devem impor autenticação forte, adotar a verificação multifator e aplicar o princípio de privilégios mínimos em contas de usuário. Eles devem corrigir vulnerabilidades conhecidas rapidamente e fortalecer as ferramentas de monitoramento para identificar comportamentos anormais. O Google também aconselha as equipes de segurança a expandir seus planos de resposta a incidentes para incluir ameaças habilitadas por IA e integrar feeds de inteligência de ameaças que rastreiam atividades relacionadas à IA em mercados clandestinos.
O relatório destaca que os defensores devem tratar as ameaças habilitadas por IA como um risco imediato, e não como uma preocupação futura. A combinação de IA generativa e operações cibernéticas permite que os invasores automatizem o reconhecimento, explorem vulnerabilidades mais rapidamente e produzam malware adaptável que muda em tempo real. Isso exige que as organizações adotem detecção proativa, aprendizado contínuo e colaboração com provedores de inteligência confiáveis.
Embora alguns malwares habilitados para IA identificados pelo Google permaneçam em fase de testes, a tendência é clara. O uso de inteligência artificial em ataques cibernéticos está se acelerando e a lacuna entre o uso legítimo e malicioso está diminuindo. O relatório pede aos defensores que priorizem a visibilidade dos fluxos de trabalho dos invasores, treinem analistas para reconhecer indicadores relacionados à IA e projetem sistemas resilientes capazes de resistir a ameaças adaptativas.
A inteligência artificial agora é parte integrante do cenário global de ameaças cibernéticas. De malware dinâmico e automodificado a operações automatizadas de phishing, os invasores estão remodelando a forma como as invasões se desenrolam. As equipes de segurança que conscientizam sobre o abuso da IA, fortalecem as defesas operacionais e monitoram a evolução das ferramentas habilitadas para IA estarão mais bem preparadas para responder a esse ambiente de ameaças em rápida evolução.
