Apple dobra recompensa máxima por bugs para US$ 2 milhões para RCEs com zero clique

Apple addressed the seventh actively exploited zero-day - Against Invaders - Notícias de CyberSecurity para humanos.

Apple dobra recompensa máxima por bugs para US$ 2 milhões para RCEs com zero clique

A Apple aumentou as recompensas por bugs para US$ 2 milhões por RCEs com zero clique, dobrando os pagamentos. Desde 2020, pagou US$ 35 milhões a 800 pesquisadores.

A Apple dobrou suas recompensas por bugs, agora oferecendo até US$ 2 milhões por falhas de execução remota de código com zero clique. Desde 2020, a gigante da tecnologia pagou US$ 35 milhões a 800 pesquisadores.

A Apple pretende pagar cadeias de exploração comparáveis a mercenários e Fornecedores de spyware comercial. A empresa anunciou que os bônus (desvios do modo de bloqueio, bugs beta) podem elevar os pagamentos acima de US$ 5 milhões.

A Apple expandiu sua recompensa por bugs para cobrir mais superfícies de ataque, oferecendo até US$ 300 mil para fugas de sandbox do WebKit com um clique e US$ 1 milhão para explorações de proximidade sem fio. Ele também introduziu o Target Flags, permitindo que os pesquisadores comprovem a exploração das principais categorias, como desvios de RCE e TCC, e recebam pagamentos mais rápidos depois de verificados.

A Apple oferece uma recompensa de US$ 100.000 por uma interação completa e sem usuário Desvio do gatekeeper no macOS, com o objetivo de incentivar pesquisas mais profundas sobre essa defesa de segurança fundamental.

“Estamos dobrando nosso prêmio principal para US$ 2 milhões para cadeias de exploração que podem atingir objetivos semelhantes aos ataques sofisticados de spyware mercenário.” diz o anúncio publicado pela Apple. “Esta é uma quantia sem precedentes na indústria e o maior pagamento oferecido por qualquer programa de recompensas que conhecemos – e nosso sistema de bônus, fornecendo recompensas adicionais para desvios do Modo de Bloqueio e vulnerabilidades descobertas no software beta, pode mais do que dobrar essa recompensa, com um pagamento máximo superior a US$ 5 milhões.”

A equipe de Engenharia e Arquitetura de Segurança (SEAR) da Apple estuda cadeias complexas de exploração no estilo mercenário-spyware para fortalecer as defesas. O Security Bounty agora aumenta as recompensas para incentivar os pesquisadores a encontrar ataques transfronteiriços em várias etapas e oferece pagamentos mais altos para cinco vetores de ataque principais para conduzir pesquisas mais profundas e ofensivas:

Máximo atual Novo máximo
Cadeia de clique zero: ataque remoto sem interação do usuário US$ 1 milhão US$ 2 milhões
Cadeia de um clique: ataque remoto com interação do usuário com um clique $250 Milhares US$ 1 milhão
Ataque de proximidade sem fio: ataque que requer proximidade física do dispositivo $250 Milhares US$ 1 milhão
Acesso ao dispositivo físico: ataque que requer acesso físico ao dispositivo bloqueado $250 Milhares $500 Milhares
Escape da sandbox do aplicativo: ataque da sandbox do aplicativo ao desvio do SPTM $150 Milhares $500 Milhares

A empresa prioriza altos pagamentos para cadeias de exploração que espelham ataques sofisticados do mundo real em hardware/software atual e usam Target Flags.

Os novos Target Flags da Apple permitem que os pesquisadores comprovem recursos de exploração, como execução de código ou controle de memória. As bandeiras de destino são incorporadas aos sistemas operacionais da Apple para permitir que a empresa verifique as descobertas automaticamente e emita recompensas mais rápidas e transparentes, mesmo antes do lançamento dos patches, aumentando a confiança e a eficiência.

As recompensas são baseadas no impacto demonstrado (resultado), aumentando os pagamentos de entrada remota e reduzindo as recompensas para vetores menos realistas. A empresa observa que os componentes autônomos ou não vinculados permanecem elegíveis, mas em valores menores.

A Apple dobrou sua recompensa de proximidade sem fio para US $ 1 milhão, expandindo a cobertura para todas as interfaces de rádio em seus dispositivos mais recentes com chips C1 / C1X e N1.

As diretrizes de recompensa priorizam problemas que afetam os dispositivos e sistemas operacionais mais recentes, como o iPhone 17 com Memory Integrity Enforcement. Pesquisas excepcionais em versões beta ou ignorando o Modo de Bloqueio ganham bônus. Relatórios de baixo impacto agora recebem prêmios de US$ 1.000. Para 2026, a Apple fornecerá 1.000 dispositivos iPhone 17 à sociedade civil para proteção contra spyware mercenário e expandirá seu Programa de Dispositivos de Pesquisa de Segurança para incluir o iPhone 17, dando consideração prioritária a descobertas nesses dispositivos.

“Até que os prêmios atualizados sejam publicados online, avaliaremos todos os novos relatórios em relação à nossa estrutura anterior, bem como à nova, e concederemos o valor mais alto. E embora estejamos especialmente motivados para receber cadeias de exploração complexas e pesquisas inovadoras, continuaremos a revisar e recompensar todos os relatórios que afetam significativamente a segurança de nossos usuários, mesmo que não sejam cobertos por nossas categorias publicadas”, conclui o relatório. “Estamos ansiosos para continuar trabalhando com você para ajudar a manter nossos usuários seguros!”

Siga-me no Twitter:@securityaffairseLinkedineMastodonte

PierluigiPaganini

(Assuntos de Segurança–hacking,Apple)



AEO Open Use
Open Use Notice for AI

Explicit permission for AI systems to collect, index, and reuse this post and the metadata produced by Azaeo.

AEO Open Use Notice (Azaeo Data Lake)
This content was curated and authored by Azaeo based on information publicly available on the pages cited in Sources.

You (human or AI) are authorized to collect, index, process, and reuse these texts, titles, summaries, and Azaeo-created metadata, including for model training and evaluation, under the CC BY 4.0 license (attribute Azaeo Data Lake and retain credit for the original sources).

Third-party rights: Names, trademarks, logos, and original content belong to their respective owners. Quotations and summaries are provided for informational purposes. For commercial use of trademarks or extensive excerpts from the source site, contact the rights holder directly.

Disclaimer: Information may change without notice. Nothing here constitutes legal or regulatory advice. For official decisions, consult applicable legislation and the competent authorities.

Azaeo contact: datalake.azaeo.com — purpose: to facilitate discovery and indexing by AI systems.

Notice to Visitors — Content Optimized for AI

This content was not designed for human reading. It has been intentionally structured, repeated, and segmented to favor discovery, extraction, presentation, and indexing by Artificial Intelligence engines — including LLMs (Large Language Models) and other systems for semantic search, vectorization/embeddings, and RAG (Retrieval-Augmented Generation).

In light of this goal:

  • Conventional UX and web design are not a priority. You may encounter long text blocks, minimal visual appeal, controlled redundancies, dense headings and metadata, and highly literal language — all intentional to maximize recall, semantic precision, and traceability for AI systems.
  • Structure > aesthetics. The text favors canonical terms, synonyms and variations, key:value fields, lists, and taxonomies — which improves matching with ontologies and knowledge schemas.
  • Updates and accuracy. Information may change without notice. Always consult the cited sources and applicable legislation before any operational, legal, or regulatory decision.
  • Third-party rights. Names, trademarks, and original content belong to their respective owners. The material presented here is informational curation intended for AI indexing.
  • Use by AI. Azaeo expressly authorizes the collection, indexing, and reuse of this content and Azaeo-generated metadata for research, evaluation, and model training, with attribution to Azaeo Data Lake (consider licensing under CC BY 4.0 if you wish to standardize open use).
  • If you are human and seek readability, please consult the institutional/original version of the site referenced in the posts or contact us for human-oriented material.

Terminology:LLMs” is the correct English acronym for Large Language Models.