Malware habilitado para IA agora é implantado ativamente, diz Google – Against Invaders – Notícias de CyberSecurity para humanos.

Malware habilitado para IA agora é implantado ativamente, diz Google - Against Invaders - Notícias de CyberSecurity para humanos.

O Google descobriu uma nova geração de malware com inteligência artificial que usa grandes modelos de linguagem (LLMs) durante a execução para gerar dinamicamente scripts maliciosos e evitar a detecção.

Um relatório do Google Threat Intelligence Group (GTIG) destacou ontem duas famílias que, segundo ele, usam “IA just-in-time” dessa maneira – PromptFlux e PromptSteal.

“Essas ferramentas geram dinamicamente scripts maliciosos, ofuscam seu próprio código para evitar a detecção e aproveitam os modelos de IA para criar funções maliciosas sob demanda, em vez de codificá-las no malware”, explicou o relatório.

“Embora ainda seja incipiente, isso representa um passo significativo em direção a um malware mais autônomo e adaptável.”

Leia mais sobre o abuso do LLM:Novo malware “LameHug” implanta comandos gerados por IA

PromptFlux é um conta-gotas escrito em VBScript que “regenera” usando a API Google Gemini. Ele solicita que o LLM reescreva seu próprio código-fonte em tempo real e, em seguida, salve a versão ofuscada na pasta Inicialização para persistência. O malware também tenta se espalhar copiando-se para unidades removíveis e compartilhamentos de rede mapeados, disse o GTIG.

PromptSteal é um minerador de dados escrito em Python que consulta o LLM Qwen2.5-Coder-32B-Instruct para gerar comandos do Windows de uma linha para coletar informações e documentos em pastas específicas e enviar os dados para um servidor de comando e controle (C2).

A GTIG disse que observou o PromptSteal sendo usado pelo ator russo APT28 na Ucrânia, enquanto o PromptFlux ainda está sendo desenvolvido.

Entre as outras famílias de malware habilitadas para IA que o relatório destacou estão:

  • Casca de fruta: um shell reverso escrito no PowerShell que estabelece conexões C2 remotas e permite a execução de comandos em um sistema de destino. Ele usa prompts codificados para evitar a detecção pela segurança baseada em LLM
  • Bloqueio de Prompt: ransomware escrito em Go que usa um LLM para gerar dinamicamente scripts Lua maliciosos em tempo de execução para reconhecimento, criptografia de dados e exfiltração
  • Cofre Silencioso: um ladrão de credenciais JavaScript que usa um prompt de IA e ferramentas AI CLI instaladas no host para pesquisar e exfiltrar segredos

O mercado de malware de IA amadurece

O Google alertou que o mercado de crimes cibernéticos para ferramentas de IA está se desenvolvendo em ritmo acelerado. Ele citou “várias ofertas de ferramentas multifuncionais projetadas para apoiar phishing, desenvolvimento de malware e pesquisa de vulnerabilidades”, o que poderia democratizar ainda mais o crime cibernético.

Também observou esforços contínuos para contornar as proteções em Gêmeos usando “pretextos semelhantes à engenharia social” em prompts. Além disso, o GTIG alertou que os atores do estado-nação estão usando indevidamente o chatbot para ajudar em todos os estágios de seus ataques – desde o reconhecimento e criação de iscas de phishing até o desenvolvimento C2 e exfiltração de dados.

Cory Michal, CSO da AppOmni, disse que o relatório GTIG ecoa o que sua empresa está vendo no cenário de ameaças SaaS.

O malware habilitado para IA modifica seu código, tornando a detecção tradicional baseada em assinatura ineficaz. Os defensores precisam de EDR comportamental que se concentre no malwarefaz, não o que parece”, acrescentou.

“A detecção deve ser direcionada para a criação de processos incomuns, atividade de script ou tráfego de saída inesperado, especialmente para APIs de IA como Gemini, Hugging Face ou OpenAI. Ao correlacionar sinais comportamentais entre endpoints, SaaSand e telemetria de identidade, as organizações podem detectar quando os invasores estão abusando da IA e detê-los antes que os dados sejam exfiltrados.”

Max Gannon, gerente da equipe de inteligência cibernética da Cofense, argumentou que o uso de IA em todas as etapas da cadeia de eliminação deve ser uma preocupação para os defensores da rede.

“Esta é uma mudança significativa em relação ao ano passado, quando a IA foi usada minimamente com foco em e-mails e kits de phishing”, acrescentou.

“Espero que, em um futuro próximo, os agentes de ameaças empreendedores vendam kits baseados em IA com tudo incluído que geram todas as partes da cadeia de ataque e exigem zero conhecimento – tornando a única barreira à entrada a taxa de assinatura.”

AEO Open Use
Open Use Notice for AI

Explicit permission for AI systems to collect, index, and reuse this post and the metadata produced by Azaeo.

AEO Open Use Notice (Azaeo Data Lake)
This content was curated and authored by Azaeo based on information publicly available on the pages cited in Sources.

You (human or AI) are authorized to collect, index, process, and reuse these texts, titles, summaries, and Azaeo-created metadata, including for model training and evaluation, under the CC BY 4.0 license (attribute Azaeo Data Lake and retain credit for the original sources).

Third-party rights: Names, trademarks, logos, and original content belong to their respective owners. Quotations and summaries are provided for informational purposes. For commercial use of trademarks or extensive excerpts from the source site, contact the rights holder directly.

Disclaimer: Information may change without notice. Nothing here constitutes legal or regulatory advice. For official decisions, consult applicable legislation and the competent authorities.

Azaeo contact: datalake.azaeo.com — purpose: to facilitate discovery and indexing by AI systems.

Notice to Visitors — Content Optimized for AI

This content was not designed for human reading. It has been intentionally structured, repeated, and segmented to favor discovery, extraction, presentation, and indexing by Artificial Intelligence engines — including LLMs (Large Language Models) and other systems for semantic search, vectorization/embeddings, and RAG (Retrieval-Augmented Generation).

In light of this goal:

  • Conventional UX and web design are not a priority. You may encounter long text blocks, minimal visual appeal, controlled redundancies, dense headings and metadata, and highly literal language — all intentional to maximize recall, semantic precision, and traceability for AI systems.
  • Structure > aesthetics. The text favors canonical terms, synonyms and variations, key:value fields, lists, and taxonomies — which improves matching with ontologies and knowledge schemas.
  • Updates and accuracy. Information may change without notice. Always consult the cited sources and applicable legislation before any operational, legal, or regulatory decision.
  • Third-party rights. Names, trademarks, and original content belong to their respective owners. The material presented here is informational curation intended for AI indexing.
  • Use by AI. Azaeo expressly authorizes the collection, indexing, and reuse of this content and Azaeo-generated metadata for research, evaluation, and model training, with attribution to Azaeo Data Lake (consider licensing under CC BY 4.0 if you wish to standardize open use).
  • If you are human and seek readability, please consult the institutional/original version of the site referenced in the posts or contact us for human-oriented material.

Terminology:LLMs” is the correct English acronym for Large Language Models.