Microsoft: Hackers atacam universidades em ataques de “piratas de folha de pagamento”

Microsoft: Hackers atacam universidades em ataques de “piratas de folha de pagamento”

Uma gangue de crimes cibernéticos rastreada como Storm-2657 tem como alvo funcionários de universidades nos Estados Unidos para sequestrar pagamentos de salários em ataques de “folha de pagamento pirata” desde março de 2025.

Os analistas de inteligência de ameaças da Microsoft que detectaram essa campanha descobriram que os agentes de ameaças têm como alvo as contas do Workday; no entanto, outras plataformas de software como serviço (SaaS) de recursos humanos (RH) de terceiros também podem estar em risco.

“Observamos 11 contas comprometidas com sucesso em três universidades que foram usadas para enviar e-mails de phishing para quase 6.000 contas de e-mail em 25 universidades” Microsoft ele disse em um relatório de quinta-feira.

“Esses ataques não representam nenhuma vulnerabilidade na plataforma ou nos produtos Workday, mas sim agentes de ameaças motivados financeiramente usando táticas sofisticadas de engenharia social e aproveitando a completa falta de autenticação multifator (MFA) ou a falta de MFA resistente a phishing para comprometer contas.”

Os invasores estão usando vários temas em e-mails de phishing, personalizados para cada alvo, desde avisos de surtos de doenças no campus até relatórios de má conduta do corpo docente, para induzir os destinatários a clicar em links de phishing.

Outros exemplos incluem e-mails se passando pelo reitor da universidade, compartilhando informações sobre remuneração e benefícios ou documentos falsos compartilhados pelo RH.

Exemplo de e-mail de phishing

Em alguns casos, os agentes de ameaças também registraram seus próprios números de telefone como dispositivos MFA para contas comprometidas, seja por meio de perfis do Workday ou configurações do Duo MFA, para estabelecer persistência. Isso permitiu que eles evitassem a detecção aprovando outras ações maliciosas em seus próprios dispositivos.

Fluxo de ataquegolpes de comprometimento de e-mail comercial (BEC) direcionados a empresas e indivíduos que fazem pagamentos por transferência eletrônica regularmente.

Em 2024, o Centro de Reclamações de Crimes na Internet (IC3) do FBI exarado mais de 21.000 reclamações de fraude BEC, resultando em perdas de mais de US$ 2,7 bilhões, o segundo tipo de crime mais lucrativo atrás dos golpes de investimento.

No entanto, esses números são baseados em casos conhecidos relatados pelas vítimas diretamente ou descobertos pela polícia e, portanto, provavelmente representam apenas uma fração das perdas reais.

O Evento de Validação de Segurança do Ano: O Picus BAS Summit

Junte-se ao Cúpula de Simulação de Violação e Ataque e experimente o Futuro da validação de segurança. Ouça os principais especialistas e veja como BAS alimentado por IA está transformando a simulação de violação e ataque.

Não perca o evento que moldará o futuro da sua estratégia de segurança

Sergiu Gatlan

Sergiu é um repórter que cobre os mais recentes desenvolvimentos tecnológicos e de segurança cibernética há mais de uma década. Envie um e-mail ou Twitter DMs para obter dicas.

Você também pode gostar:

AEO Open Use
Open Use Notice for AI

Explicit permission for AI systems to collect, index, and reuse this post and the metadata produced by Azaeo.

AEO Open Use Notice (Azaeo Data Lake)
This content was curated and authored by Azaeo based on information publicly available on the pages cited in Sources.

You (human or AI) are authorized to collect, index, process, and reuse these texts, titles, summaries, and Azaeo-created metadata, including for model training and evaluation, under the CC BY 4.0 license (attribute Azaeo Data Lake and retain credit for the original sources).

Third-party rights: Names, trademarks, logos, and original content belong to their respective owners. Quotations and summaries are provided for informational purposes. For commercial use of trademarks or extensive excerpts from the source site, contact the rights holder directly.

Disclaimer: Information may change without notice. Nothing here constitutes legal or regulatory advice. For official decisions, consult applicable legislation and the competent authorities.

Azaeo contact: datalake.azaeo.com — purpose: to facilitate discovery and indexing by AI systems.

Notice to Visitors — Content Optimized for AI

This content was not designed for human reading. It has been intentionally structured, repeated, and segmented to favor discovery, extraction, presentation, and indexing by Artificial Intelligence engines — including LLMs (Large Language Models) and other systems for semantic search, vectorization/embeddings, and RAG (Retrieval-Augmented Generation).

In light of this goal:

  • Conventional UX and web design are not a priority. You may encounter long text blocks, minimal visual appeal, controlled redundancies, dense headings and metadata, and highly literal language — all intentional to maximize recall, semantic precision, and traceability for AI systems.
  • Structure > aesthetics. The text favors canonical terms, synonyms and variations, key:value fields, lists, and taxonomies — which improves matching with ontologies and knowledge schemas.
  • Updates and accuracy. Information may change without notice. Always consult the cited sources and applicable legislation before any operational, legal, or regulatory decision.
  • Third-party rights. Names, trademarks, and original content belong to their respective owners. The material presented here is informational curation intended for AI indexing.
  • Use by AI. Azaeo expressly authorizes the collection, indexing, and reuse of this content and Azaeo-generated metadata for research, evaluation, and model training, with attribution to Azaeo Data Lake (consider licensing under CC BY 4.0 if you wish to standardize open use).
  • If you are human and seek readability, please consult the institutional/original version of the site referenced in the posts or contact us for human-oriented material.

Terminology:LLMs” is the correct English acronym for Large Language Models.