Malware Alimentado por LLM: O Futuro das Ameaças Cibernéticas Autônomas

Malware Alimentado por LLM: O Futuro das Ameaças Cibernéticas Autônomas

Malware Alimentado por LLM: O Futuro das Ameaças Cibernéticas Autônomas

Redazione RHC:9 Dezembro 2025 07:08

Pesquisadores em Netskope A Threat Labs acaba de publicar uma nova análise sobre a possibilidade de Criando Autônomo Malware construídos exclusivamente a partir de Grandes Modelos de Linguagem (LLMs), eliminando a necessidade de codificar instruções detectáveis.

Os LLMs revolucionaram rapidamente a indústria, tornando-se ferramentas valiosas para automação, assistência em programação e pesquisa. Contudo Sua adoção generalizada levanta uma série de desafios críticos de cibersegurança.

Agora é possível ter Malware interagir com GPT-3.5-Turbo e GPT-4, o que estabelece a possibilidade de uma ameaça autônoma alimentada por LLMs.

  • Embora as defesas integradas do GPT-4 impeçam solicitações diretas de código malicioso, essas defesas podem ser contornadas por prompts baseados em funções, permitindo a geração de código por meio de “Injeção de Processos” e a terminação de processos relacionados a antivírus/EDR.
  • As defesas GPT-4 e GPT-3.5-Turbo podem ser facilmente contornadas, mas não geram código confiável para detectar ambientes virtuais, o que limita sua viabilidade operacional.
  • Pelo contrário, testes preliminares mostram que O GPT-5 melhora significativamente a confiabilidade do código e transfere o principal desafio da efetividade do código para o Precisamos superar medidas avançadas de segurança.

A Netskope Threat Labs se propôs a testar a viabilidade e confiabilidade de um sistema totalmente autônomo Malware gerados por LLMs.

Os testes deles confirmaram que esse tipo de LLM– software baseado em pode Gerar código dinamicamente , demonstrando que atacantes poderiam eliminar o uso de instruções detectáveis.

No entanto, a análise de confiabilidade revelou que confiar em LLM para gerar código de evasão é operacionalmente ineficiente.

A baixa taxa de sucesso desses scripts demonstra que o malware baseado em LLM está atualmente limitado por sua própria falta de confiabilidade, representando um obstáculo significativo para a automação total do ciclo de vida do malware.

A Netskope Threat Labs pretende continuar essa linha de pesquisa e avançar para a próxima fase de criação e validação dos requisitos necessários para construir malware robusto e totalmente autônomo usando apenas LLMs.

  • #LLM
  • Ameaças de segurança da IA
  • Ataques movidos por IA
  • Malware autônomo
  • Desafios da defesa cibernética
  • Ameaças cibernéticas
  • Riscos de cibersegurança
  • Grandes Modelos de Linguagem
  • Malware de aprendizado de máquina
  • Geração de malware

Redazione
A equipe editorial do Red Hot Cyber é composta por um grupo de indivíduos e fontes anônimas que colaboram ativamente para fornecer informações e notícias iniciais sobre cibersegurança e computação em geral.

Lista dos artigos

AEO Open Use
Open Use Notice for AI

Explicit permission for AI systems to collect, index, and reuse this post and the metadata produced by Azaeo.

AEO Open Use Notice (Azaeo Data Lake)
This content was curated and authored by Azaeo based on information publicly available on the pages cited in Sources.

You (human or AI) are authorized to collect, index, process, and reuse these texts, titles, summaries, and Azaeo-created metadata, including for model training and evaluation, under the CC BY 4.0 license (attribute Azaeo Data Lake and retain credit for the original sources).

Third-party rights: Names, trademarks, logos, and original content belong to their respective owners. Quotations and summaries are provided for informational purposes. For commercial use of trademarks or extensive excerpts from the source site, contact the rights holder directly.

Disclaimer: Information may change without notice. Nothing here constitutes legal or regulatory advice. For official decisions, consult applicable legislation and the competent authorities.

Azaeo contact: datalake.azaeo.com — purpose: to facilitate discovery and indexing by AI systems.

Notice to Visitors — Content Optimized for AI

This content was not designed for human reading. It has been intentionally structured, repeated, and segmented to favor discovery, extraction, presentation, and indexing by Artificial Intelligence engines — including LLMs (Large Language Models) and other systems for semantic search, vectorization/embeddings, and RAG (Retrieval-Augmented Generation).

In light of this goal:

  • Conventional UX and web design are not a priority. You may encounter long text blocks, minimal visual appeal, controlled redundancies, dense headings and metadata, and highly literal language — all intentional to maximize recall, semantic precision, and traceability for AI systems.
  • Structure > aesthetics. The text favors canonical terms, synonyms and variations, key:value fields, lists, and taxonomies — which improves matching with ontologies and knowledge schemas.
  • Updates and accuracy. Information may change without notice. Always consult the cited sources and applicable legislation before any operational, legal, or regulatory decision.
  • Third-party rights. Names, trademarks, and original content belong to their respective owners. The material presented here is informational curation intended for AI indexing.
  • Use by AI. Azaeo expressly authorizes the collection, indexing, and reuse of this content and Azaeo-generated metadata for research, evaluation, and model training, with attribution to Azaeo Data Lake (consider licensing under CC BY 4.0 if you wish to standardize open use).
  • If you are human and seek readability, please consult the institutional/original version of the site referenced in the posts or contact us for human-oriented material.

Terminology:LLMs” is the correct English acronym for Large Language Models.