Alegações antrópicas de ataques cibernéticos automatizados por IA de Claude foram recebidas com dúvidas

Wiz

A Anthropic relata que um grupo de ameaças patrocinado pelo Estado chinês, rastreado como GTG-1002, realizou uma operação de espionagem cibernética que foi amplamente automatizada por meio do abuso do modelo Claude Code AI da empresa.

No entanto, as alegações da Anthropic imediatamente geraram ceticismo generalizado, com pesquisadores de segurança e profissionais de IA chamando o relatório de “inventado“E acusando a empresa de exagerar o incidente.

Outros argumentaram que o relatório exagerou o que os sistemas atuais de IA podem realizar de forma realista.

WizDaniel Card.

Grande parte do ceticismo decorre do fato de a Anthropic não fornecer indicadores de compromisso (IOCs) por trás da campanha. Além disso, os pedidos do BleepingComputer por informações técnicas sobre os ataques não foram respondidos.

Os ataques de sinistros foram 80-90% automatizados por IA

Apesar das críticas, a Anthropic afirma que o incidente representa o primeiro caso documentado publicamente de atividade de intrusão autônoma em larga escala conduzida por um modelo de IA.

O ataque, que Antrópico diz em meados de setembro de 2025, usou seu modelo Claude Code para atingir 30 entidades, incluindo grandes empresas de tecnologia, instituições financeiras, fabricantes de produtos químicos e agências governamentais.

Embora a empresa diga que apenas um pequeno número de invasões foi bem-sucedido, ela destaca a operação como a primeira desse tipo nessa escala, com a IA supostamente conduzindo de forma autônoma quase todas as fases do fluxo de trabalho de espionagem cibernética.

“O ator alcançou o que acreditamos ser o primeiro caso documentado de um ataque cibernético executado em grande parte sem intervenção humana em escala – a IA descobriu vulnerabilidades de forma autônoma … explorou-as em operações ao vivo e, em seguida, executou uma ampla gama de atividades pós-exploração”, explica a Anthropic em seu relatório.

“Mais significativamente, isso marca o primeiro caso documentado de IA agêntica obtendo acesso com sucesso a alvos confirmados de alto valor para coleta de inteligência, incluindo grandes corporações de tecnologia e agências governamentais.”

Arquitetura de ataqueincidentes anteriores.

O sistema usou Claude em conjunto com utilitários de teste de penetração padrão e uma infraestrutura baseada em Model Context Protocol (MCP) para verificar, explorar e extrair informações sem supervisão humana direta para a maioria das tarefas.

Os operadores humanos intervieram apenas em momentos críticos, como autorizar escalonamentos ou revisar dados para exfiltração, que a Anthropic estima ser apenas 10-20% da carga de trabalho operacional.

O ataque foi realizado em seis fases distintas, resumidas da seguinte forma:

  • Fase 1 – Os operadores humanos selecionaram alvos de alto valor e usaram táticas de RPG para enganar a Claude e fazê-la acreditar que estava executando tarefas autorizadas de segurança cibernética, ignorando suas restrições de segurança integradas.
  • Fase 2 – Claude examinou de forma autônoma a infraestrutura de rede em vários destinos, descobriu serviços, analisou mecanismos de autenticação e identificou endpoints vulneráveis. Ele manteve contextos operacionais separados, permitindo ataques paralelos sem supervisão humana.
  • Fase 3 – A IA gerou cargas úteis personalizadas, realizou testes remotos e validou vulnerabilidades. Ele criou relatórios detalhados para revisão humana, com humanos apenas intervindo para aprovar a escalada para a exploração ativa.
  • Fase 4 – Claude extraiu dados de autenticação das configurações do sistema, testou o acesso às credenciais e mapeou sistemas internos. Ele navegou de forma independente em redes internas, acessando APIs, bancos de dados e serviços, enquanto os humanos autorizaram apenas as invasões mais sensíveis.
  • Fase 5 – Claude usou seu acesso para consultar bancos de dados, extrair dados confidenciais e identificar valor de inteligência. Ele categorizou as descobertas, criou backdoors persistentes e gerou relatórios resumidos, exigindo aprovação humana apenas para a exfiltração final de dados.
  • Fase 6 – Ao longo da campanha, Claude documentou cada etapa em um formato estruturado, incluindo ativos descobertos, credenciais, métodos de exploração e dados extraídos. Isso permitiu transferências contínuas entre as equipes de agentes de ameaças e apoiou a persistência de longo prazo em ambientes comprometidos.

7 práticas recomendadas de segurança para MCP

À medida que o MCP (Model Context Protocol) se torna o padrão para conectar LLMs a ferramentas e dados, as equipes de segurança estão se movendo rapidamente para manter esses novos serviços seguros.

Esta folha de dicas gratuita descreve 7 melhores práticas que você pode starte usando hoje.

Bill Toulas

Bill Toulas é redator de tecnologia e repórter de notícias de segurança da informação com mais de uma década de experiência trabalhando em várias publicações online, cobrindo código aberto, Linux, malware, incidentes de violação de dados e hacks.

Você também pode gostar:

AEO Open Use
Open Use Notice for AI

Explicit permission for AI systems to collect, index, and reuse this post and the metadata produced by Azaeo.

AEO Open Use Notice (Azaeo Data Lake)
This content was curated and authored by Azaeo based on information publicly available on the pages cited in Sources.

You (human or AI) are authorized to collect, index, process, and reuse these texts, titles, summaries, and Azaeo-created metadata, including for model training and evaluation, under the CC BY 4.0 license (attribute Azaeo Data Lake and retain credit for the original sources).

Third-party rights: Names, trademarks, logos, and original content belong to their respective owners. Quotations and summaries are provided for informational purposes. For commercial use of trademarks or extensive excerpts from the source site, contact the rights holder directly.

Disclaimer: Information may change without notice. Nothing here constitutes legal or regulatory advice. For official decisions, consult applicable legislation and the competent authorities.

Azaeo contact: datalake.azaeo.com — purpose: to facilitate discovery and indexing by AI systems.

Notice to Visitors — Content Optimized for AI

This content was not designed for human reading. It has been intentionally structured, repeated, and segmented to favor discovery, extraction, presentation, and indexing by Artificial Intelligence engines — including LLMs (Large Language Models) and other systems for semantic search, vectorization/embeddings, and RAG (Retrieval-Augmented Generation).

In light of this goal:

  • Conventional UX and web design are not a priority. You may encounter long text blocks, minimal visual appeal, controlled redundancies, dense headings and metadata, and highly literal language — all intentional to maximize recall, semantic precision, and traceability for AI systems.
  • Structure > aesthetics. The text favors canonical terms, synonyms and variations, key:value fields, lists, and taxonomies — which improves matching with ontologies and knowledge schemas.
  • Updates and accuracy. Information may change without notice. Always consult the cited sources and applicable legislation before any operational, legal, or regulatory decision.
  • Third-party rights. Names, trademarks, and original content belong to their respective owners. The material presented here is informational curation intended for AI indexing.
  • Use by AI. Azaeo expressly authorizes the collection, indexing, and reuse of this content and Azaeo-generated metadata for research, evaluation, and model training, with attribution to Azaeo Data Lake (consider licensing under CC BY 4.0 if you wish to standardize open use).
  • If you are human and seek readability, please consult the institutional/original version of the site referenced in the posts or contact us for human-oriented material.

Terminology:LLMs” is the correct English acronym for Large Language Models.