A rápida proliferação de grandes modelos de linguagem transformou a forma como as organizações abordam a automação, a codificação e a pesquisa.
No entanto, este avanço tecnológico representa uma faca de dois gumes: os agentes de ameaças estão cada vez mais explorando como transformar estas ferramentas em armas para criar malware de próxima geração que funcione de forma autónoma.
Pesquisa recente do Netskope Threat Labs revela que o GPT-3.5-Turbo e o GPT-4 podem ser manipulados para gerar código malicioso, marcando uma mudança significativa no cenário de ameaças, onde os invasores podem não precisar mais codificar instruções detectáveis em binários.
A investigação da Netskope estabeleceu uma base crítica: os modelos de linguagem podem gerar código malicioso operacionalmente viável? A equipe de pesquisa solicitou que GPT-3.5-Turbo e GPT-4 criassem scripts Python para injeção de processos e encerramento de antivírus e processos relacionados a EDR.
Embora o GPT-4 inicialmente tenha recusado a solicitação devido às suas proteções integradas, uma simples injeção de prompt baseada em função, posicionando a consulta como um script de automação de teste de penetração, contornou com êxito essas proteções.
O GPT-3.5-Turbo, por outro lado, obedeceu sem resistência, demonstrando a inconsistência nas implementações de segurança do modelo entre as versões.
Este avanço valida a possibilidade arquitetônica de Alimentado por LLM ameaças autônomas. Ao eliminar a necessidade de instruções maliciosas codificadas, os invasores poderiam implantar binários contendo o mínimo de código incorporado e, ao mesmo tempo, confiar inteiramente em modelos de linguagem para gerar cargas polimórficas e dinâmicas em tempo real.
Esta abordagem altera fundamentalmente os paradigmas de detecção, à medida que as medidas de segurança tradicionais baseadas em assinaturas se tornam cada vez mais ineficazes contra ameaças geradas dinamicamente.
O problema de confiabilidade do código
No entanto, os testes de eficácia operacional da Netskope expuseram uma limitação crítica que prejudica a atual viabilidade do LLM no desenvolvimento de malware.
Os pesquisadores avaliaram a capacidade do GPT-4 e GPT-3.5-Turbo de gerar scripts de detecção de ambiente virtual, uma tática central de evasão de defesa em três ambientes distintos: VMware Workstation, AWS Workspace VDI e máquinas físicas.
Os resultados demonstraram graves deficiências de confiabilidade. Contra VMwareo GPT-4 alcançou apenas uma taxa de sucesso de 10 em 20, enquanto o GPT-3.5-Turbo conseguiu 12 em 20.
O desempenho entrou em colapso total em relação à infraestrutura de nuvem moderna, com ambos os modelos pontuando apenas 3 em 20 e 2 em 20, respectivamente, em ambientes AWS Workspace.
Somente quando testados em sistemas físicos é que os modelos mostraram um desempenho aceitável, com ambos alcançando taxas de sucesso de 18 em 20.
Essas descobertas indicam que, embora os LLMs possam gerar códigos maliciosos, a eficácia operacional permanece gravemente comprometida, um obstáculo significativo para os agentes de ameaças que buscam malware totalmente autônomo e confiável.
GPT-5: um vislumbre das ameaças futuras
Teste preliminar de GPT-5 reveladas sobre melhorias. O modelo mais recente demonstrou melhorias drásticas de confiabilidade, alcançando taxas de sucesso de 90% em ambientes AWS VDI onde o GPT-4 falhou catastroficamente.
Esse avanço sugere que o gargalo na confiabilidade do código está diminuindo rapidamente. No entanto, as proteções avançadas do GPT-5 apresentam um novo desafio operacional; o modelo subverte ativamente a intenção maliciosa, gerando código funcionalmente alterado, em vez de recusar solicitações, um mecanismo de defesa mais sofisticado do que simples recusas.
O Netskope Threat Labs planeja investigação contínua para obter malware totalmente agente com tecnologia LLM, com foco em técnicas de engenharia imediatas e modelos alternativos capazes de contornar barreiras de segurança avançadas.
Embora as atuais implementações de LLM permaneçam operacionalmente limitadas, a trajetória é clara: à medida que as capacidades do modelo melhoram e os investigadores desenvolvem técnicas sofisticadas de evasão, a ameaça de malware verdadeiramente autónomo e orientado por LLM torna-se cada vez mais viável, necessitando de estratégias evoluídas de deteção e defesa.
Siga-nos emGoogle Notícias,LinkedIneXpara obter atualizações instantâneas e definir GBH como fonte preferencial emGoogle.
