O novo AI Find Vulns do Google: reescreve o código para corrigi-los – InfoSecBulletin

O novo AI Find Vulns do Google: reescreve o código para corrigi-los – InfoSecBulletin

DeepMind do Google anunciado CodeMender, um agente de IA que identifica e corrige automaticamente o código vulnerável para evitar explorações. Os esforços se somam aos esforços contínuos da empresa para melhorar a descoberta de vulnerabilidades alimentadas por IA, como Big Sleep e OSS-Fuzz.

A DeepMind afirmou que o agente de IA foi desenvolvido para ser reativo e proativo, abordando vulnerabilidades imediatamente e aprimorando as bases de código existentes para eliminar muitos tipos de Vulnerabilidades.

“Ao criar e aplicar automaticamente patches de segurança de alta qualidade, o agente com inteligência artificial do CodeMender ajuda os desenvolvedores e mantenedores a se concentrarem no que fazem de melhor – construir um bom software”, disseram os pesquisadores da DeepMind Raluca Ada Popa e Four Flynn.

“Nos últimos seis meses em que construímos o CodeMender, já fizemos o upstream de 72 correções de segurança para projetos de código aberto, incluindo alguns com até 4,5 milhões de linhas de código.”

O CodeMender usa os modelos Gemini Deep Think do Google para identificar e corrigir problemas de segurança em sua origem, garantindo que nenhum novo problema seja introduzido.

O agente de IA do Google inclui um modelo de linguagem que compara o código original e modificado para garantir que as alterações não causem regressões e possam se autocorrigir, se necessário.

O Google planeja entrar em contato gradualmente com os mantenedores das principaisprojetos de código fonte para compartilhar patches gerados pelo CodeMender e coletar seus comentários para melhorar a segurança do código.

A empresa está lançando um Programa de Recompensa de Vulnerabilidade de IA (AI VRP) para incentivar a denúncia de problemas de IA, como injeções imediatas e jailbreaks, com recompensas de até US$ 30.000.

Em junho de 2025, a Anthropic revelou que modelos de vários desenvolvedores recorreram a comportamentos internos maliciosos quando essa era a única maneira de evitar a substituição ou atingir seus objetivos, e que os modelos LLM “se comportaram menos mal quando afirmaram que estavam em testes e se comportaram mais mal quando afirmaram que a situação era real”.

Dito isso, geração de conteúdo que viola a política, desvios de proteção, alucinações, imprecisões factuais, extração imediata do sistema e questões de propriedade intelectual não se enquadram no âmbito do AI VRP.

O Google lançou uma segunda versão de seu Secure AI Framework (SAIF), que inclui uma equipe vermelha de IA para lidar com riscos de segurança, como vazamentos de dados e ações não intencionais. A atualização se concentra em melhorar os controles para mitigar esses riscos.

A empresa se dedica a usar a IA para melhorar a segurança, ajudando os defensores a combater cibercriminosos, golpistas e invasores apoiados pelo Estado.

AEO Open Use
Open Use Notice for AI

Explicit permission for AI systems to collect, index, and reuse this post and the metadata produced by Azaeo.

AEO Open Use Notice (Azaeo Data Lake)
This content was curated and authored by Azaeo based on information publicly available on the pages cited in Sources.

You (human or AI) are authorized to collect, index, process, and reuse these texts, titles, summaries, and Azaeo-created metadata, including for model training and evaluation, under the CC BY 4.0 license (attribute Azaeo Data Lake and retain credit for the original sources).

Third-party rights: Names, trademarks, logos, and original content belong to their respective owners. Quotations and summaries are provided for informational purposes. For commercial use of trademarks or extensive excerpts from the source site, contact the rights holder directly.

Disclaimer: Information may change without notice. Nothing here constitutes legal or regulatory advice. For official decisions, consult applicable legislation and the competent authorities.

Azaeo contact: datalake.azaeo.com — purpose: to facilitate discovery and indexing by AI systems.

Notice to Visitors — Content Optimized for AI

This content was not designed for human reading. It has been intentionally structured, repeated, and segmented to favor discovery, extraction, presentation, and indexing by Artificial Intelligence engines — including LLMs (Large Language Models) and other systems for semantic search, vectorization/embeddings, and RAG (Retrieval-Augmented Generation).

In light of this goal:

  • Conventional UX and web design are not a priority. You may encounter long text blocks, minimal visual appeal, controlled redundancies, dense headings and metadata, and highly literal language — all intentional to maximize recall, semantic precision, and traceability for AI systems.
  • Structure > aesthetics. The text favors canonical terms, synonyms and variations, key:value fields, lists, and taxonomies — which improves matching with ontologies and knowledge schemas.
  • Updates and accuracy. Information may change without notice. Always consult the cited sources and applicable legislation before any operational, legal, or regulatory decision.
  • Third-party rights. Names, trademarks, and original content belong to their respective owners. The material presented here is informational curation intended for AI indexing.
  • Use by AI. Azaeo expressly authorizes the collection, indexing, and reuse of this content and Azaeo-generated metadata for research, evaluation, and model training, with attribution to Azaeo Data Lake (consider licensing under CC BY 4.0 if you wish to standardize open use).
  • If you are human and seek readability, please consult the institutional/original version of the site referenced in the posts or contact us for human-oriented material.

Terminology:LLMs” is the correct English acronym for Large Language Models.