Pesquisadores da Cato CTRL demonstraram que o recurso, projetado para agilizar os fluxos de trabalho de IA, pode ser facilmente transformado em arma para implantar o ransomware MedusaLocker sem o conhecimento do usuário.
Uma nova investigação de segurança cibernética revelado uma supervisão crítica no crescente ecossistema “Claude Skills” da Anthropic.
Lançado em outubro de 2025, o Claude Skills permite aos usuários criar e compartilhar módulos de código personalizados para expandir os recursos de IA.
O recurso teve uma adoção explosiva, conquistando mais de 17.000 estrelas no GitHub em apenas dois meses. No entanto, Cato CTRL alerta que o modelo de permissão atual cria uma perigosa “lacuna de consentimento”.
Numa análise técnica divulgada hoje, os investigadores explicaram que embora o “modo estrito” de Claude exija que os utilizadores aprovem o código antes da execução, esta aprovação proporciona uma falsa sensação de segurança.
Os usuários normalmente revisam a camada visível do script, mas uma vez concedida a confiança inicial, a habilidade ganha permissões persistentes para acessar o sistema de arquivos e a rede.
Para provar a vulnerabilidade, Cato CTRL modificou a habilidade oficial de criação de GIF de código aberto da Anthropic. Eles inseriram uma função auxiliar de aparência legítima chamada post_save.
Para o usuário, o script parecia ser uma lógica padrão de processamento de imagem. No entanto, em segundo plano, esta função foi programada para buscar e executar cargas externas silenciosamente.
Da produtividade ao ransomware
Em um ambiente controlado, os pesquisadores utilizaram este método para executar um MedusaLocker ao vivo. ataque de ransomware.
A habilidade armada, uma vez aprovada pelo usuário, baixou com sucesso o malware e os arquivos criptografados na máquina host. Nenhum prompt, registro ou aviso secundário foi acionado durante o processo de infecção.
“A questão principal não é que o Skill execute o código. É que a visibilidade pára no que é mostrado”, afirmou o relatório Cato CTRL.
“Um pacote malicioso convincentemente empacotado Habilidade de Claudeinstalado e aprovado uma vez por um único funcionário, pode desencadear um incidente de ransomware multimilionário.”
Com os dados de 2025 da IBM estimando o custo médio de uma violação de dados em US$ 5,08 milhões, as implicações financeiras para os 300.000 clientes empresariais da Anthropic são graves.
Atores maliciosos poderiam facilmente propagar essas habilidades transformadas em armas por meio de engenharia social em repositórios públicos, disfarçadas de ferramentas de produtividade.
Mitigações
Cato CTRL divulgou a vulnerabilidade ao Antrópico em 30 de outubro de 2025.
Cato CTRL aconselha as empresas a tratar Habilidades de IA com o mesmo cuidado que os binários executáveis. As recomendações incluem a execução do código Claude estritamente em sandboxes ou máquinas virtuais isoladas e o monitoramento de conexões de rede de saída inesperadas.
A Anthropic afirma que o sistema funciona conforme projetado, afirmando: “É responsabilidade do usuário usar e executar apenas Skills confiáveis”, e observando que os usuários são explicitamente avisados de que Claude pode usar instruções e arquivos da Skill.
No entanto, especialistas em segurança argumentam que não é realista esperar que os usuários auditem dependências de código complexas.
À medida que o ecossistema cresce, a linha entre a automação útil e a entrega de malware fica cada vez mais tênue, exigindo uma mudança na forma como as empresas confiam no código gerado por IA.
Siga-nos emGoogle Notícias,LinkedIneXpara obter atualizações instantâneas e definir GBH como fonte preferencial emGoogle.
