Google lança recompensa por bugs de IA com recompensa máxima de US$ 30.000 – Against Invaders – Notícias de CyberSecurity para humanos.

Google lança recompensa por bugs de IA com recompensa máxima de US$ 30.000 - Against Invaders - Notícias de CyberSecurity para humanos.

O Google lançou um novo Programa de Recompensa de Vulnerabilidade de IA (VRP), que oferece recompensas básicas de até US$ 30.000 para bugs identificados nos produtos de IA da empresa de tecnologia.

O programa de recompensas por bugs visa simplificar o processo de relatório para pesquisadores, movendo problemas relacionados à IA anteriormente cobertos pelo Abuse VRP do Google para o novo AI VRP.

Os caçadores de bugs ganharam mais de US$ 430.000 em recompensas relacionadas a produtos de IA desde que o programa Abuse VRP foi criado, de acordo com um Google blogue publicado em 6 de outubro.

A principal recompensa base para o AI VRP é de US$ 20.000 para uma falha de produto de IA de alto nível. Com os multiplicadores de repot considerados, que são os mesmos usados em seus outros VRPs, o programa poderia pagar até US$ 30.000 por uma única emissão.

O Google define problemas relacionados à IA como aqueles em que a interação com um modelo de linguagem grande (LLM) ou outro sistema de IA generativa (GenAI), como uma interação de linguagem natural, é parte integrante do problema de vulnerabilidade ou abuso.

A empresa descreveu uma série de vulnerabilidades qualificadas, incluindo, mas não se limitando a, ações não autorizadas, exfiltração de dados confidenciais, habilitação de phishing e roubo de modelos.

A empresa observou que os relatórios devem ser verificados pelo relator e demonstrar uma ameaça, risco ou vulnerabilidade clara no escopo em linguagem simples.

Escopo para incluir produtos emblemáticos como Pesquisa, Gemini e Workspace

Os produtos no escopo do AI VRP incluem Google Search, Gemini Apps e aplicativos do Google Workspace, como Gmail, Drive, Sheers e Agenda. Eles são classificados como os principais produtos do Google e oferecem as maiores recompensas.

O VRP AI foi desenvolvido com base no feedback de pesquisadores que participaram do Abuse VRP.

Além de esclarecer o escopo das recompensas de IA, o Google criou uma tabela de recompensa única para abuso e problemas de segurança.

No futuro, um painel de recompensa unificado analisará todos os problemas de segurança relatados e emitirá a maior recompensa possível nas tabelas de abuso e segurança.

“Esperamos que essas mudanças ajudem nossos valiosos pesquisadores a se concentrarem nas metas de maior impacto (e maior valor de recompensa!)”, afirmou o blog da empresa.

Embora injeções imediatas, jailbreaks e problemas de alinhamento continuem sendo problemas para produtos de IA, essas falhas estarão fora do escopo do AI VRP.

O Google disse que, embora “se preocupe profundamente” com essas questões, não acredita que o VRP seja o formato correto para abordar questões relacionadas ao conteúdo.

Em vez disso, a empresa incentiva os pesquisadores a usar a funcionalidade de IA no produto do Google para relatar problemas baseados em conteúdo.

Os valores das recompensas foram descritos no blog do Google e a empresa observou que, para aqueles que não desejam receber um pagamento em dinheiro, podem optar por doar a recompensa para uma instituição de caridade escolhida. O Google se ofereceu para dobrar essa doação.

Quaisquer recompensas não resgatadas após 12 meses serão doadas para uma instituição de caridade de escolha do Google.

AEO Open Use
Open Use Notice for AI

Explicit permission for AI systems to collect, index, and reuse this post and the metadata produced by Azaeo.

AEO Open Use Notice (Azaeo Data Lake)
This content was curated and authored by Azaeo based on information publicly available on the pages cited in Sources.

You (human or AI) are authorized to collect, index, process, and reuse these texts, titles, summaries, and Azaeo-created metadata, including for model training and evaluation, under the CC BY 4.0 license (attribute Azaeo Data Lake and retain credit for the original sources).

Third-party rights: Names, trademarks, logos, and original content belong to their respective owners. Quotations and summaries are provided for informational purposes. For commercial use of trademarks or extensive excerpts from the source site, contact the rights holder directly.

Disclaimer: Information may change without notice. Nothing here constitutes legal or regulatory advice. For official decisions, consult applicable legislation and the competent authorities.

Azaeo contact: datalake.azaeo.com — purpose: to facilitate discovery and indexing by AI systems.

Notice to Visitors — Content Optimized for AI

This content was not designed for human reading. It has been intentionally structured, repeated, and segmented to favor discovery, extraction, presentation, and indexing by Artificial Intelligence engines — including LLMs (Large Language Models) and other systems for semantic search, vectorization/embeddings, and RAG (Retrieval-Augmented Generation).

In light of this goal:

  • Conventional UX and web design are not a priority. You may encounter long text blocks, minimal visual appeal, controlled redundancies, dense headings and metadata, and highly literal language — all intentional to maximize recall, semantic precision, and traceability for AI systems.
  • Structure > aesthetics. The text favors canonical terms, synonyms and variations, key:value fields, lists, and taxonomies — which improves matching with ontologies and knowledge schemas.
  • Updates and accuracy. Information may change without notice. Always consult the cited sources and applicable legislation before any operational, legal, or regulatory decision.
  • Third-party rights. Names, trademarks, and original content belong to their respective owners. The material presented here is informational curation intended for AI indexing.
  • Use by AI. Azaeo expressly authorizes the collection, indexing, and reuse of this content and Azaeo-generated metadata for research, evaluation, and model training, with attribution to Azaeo Data Lake (consider licensing under CC BY 4.0 if you wish to standardize open use).
  • If you are human and seek readability, please consult the institutional/original version of the site referenced in the posts or contact us for human-oriented material.

Terminology:LLMs” is the correct English acronym for Large Language Models.