
Redazione RHC:9 Dezembro 2025 07:08
Pesquisadores em Netskope A Threat Labs acaba de publicar uma nova análise sobre a possibilidade de Criando Autônomo Malware construídos exclusivamente a partir de Grandes Modelos de Linguagem (LLMs), eliminando a necessidade de codificar instruções detectáveis.
Os LLMs revolucionaram rapidamente a indústria, tornando-se ferramentas valiosas para automação, assistência em programação e pesquisa. Contudo Sua adoção generalizada levanta uma série de desafios críticos de cibersegurança.
Agora é possível ter Malware interagir com GPT-3.5-Turbo e GPT-4, o que estabelece a possibilidade de uma ameaça autônoma alimentada por LLMs.
- Embora as defesas integradas do GPT-4 impeçam solicitações diretas de código malicioso, essas defesas podem ser contornadas por prompts baseados em funções, permitindo a geração de código por meio de “Injeção de Processos” e a terminação de processos relacionados a antivírus/EDR.
- As defesas GPT-4 e GPT-3.5-Turbo podem ser facilmente contornadas, mas não geram código confiável para detectar ambientes virtuais, o que limita sua viabilidade operacional.
- Pelo contrário, testes preliminares mostram que O GPT-5 melhora significativamente a confiabilidade do código e transfere o principal desafio da efetividade do código para o Precisamos superar medidas avançadas de segurança.
A Netskope Threat Labs se propôs a testar a viabilidade e confiabilidade de um sistema totalmente autônomo Malware gerados por LLMs.
Os testes deles confirmaram que esse tipo de LLM– software baseado em pode Gerar código dinamicamente , demonstrando que atacantes poderiam eliminar o uso de instruções detectáveis.
No entanto, a análise de confiabilidade revelou que confiar em LLM para gerar código de evasão é operacionalmente ineficiente.
A baixa taxa de sucesso desses scripts demonstra que o malware baseado em LLM está atualmente limitado por sua própria falta de confiabilidade, representando um obstáculo significativo para a automação total do ciclo de vida do malware.
A Netskope Threat Labs pretende continuar essa linha de pesquisa e avançar para a próxima fase de criação e validação dos requisitos necessários para construir malware robusto e totalmente autônomo usando apenas LLMs.
- #LLM
- Ameaças de segurança da IA
- Ataques movidos por IA
- Malware autônomo
- Desafios da defesa cibernética
- Ameaças cibernéticas
- Riscos de cibersegurança
- Grandes Modelos de Linguagem
- Malware de aprendizado de máquina
- Geração de malware
Redazione
A equipe editorial do Red Hot Cyber é composta por um grupo de indivíduos e fontes anônimas que colaboram ativamente para fornecer informações e notícias iniciais sobre cibersegurança e computação em geral.