DeepMind do Google anunciado CodeMender, um agente de IA que identifica e corrige automaticamente o código vulnerável para evitar explorações. Os esforços se somam aos esforços contínuos da empresa para melhorar a descoberta de vulnerabilidades alimentadas por IA, como Big Sleep e OSS-Fuzz.
A DeepMind afirmou que o agente de IA foi desenvolvido para ser reativo e proativo, abordando vulnerabilidades imediatamente e aprimorando as bases de código existentes para eliminar muitos tipos de Vulnerabilidades.
“Ao criar e aplicar automaticamente patches de segurança de alta qualidade, o agente com inteligência artificial do CodeMender ajuda os desenvolvedores e mantenedores a se concentrarem no que fazem de melhor – construir um bom software”, disseram os pesquisadores da DeepMind Raluca Ada Popa e Four Flynn.
“Nos últimos seis meses em que construímos o CodeMender, já fizemos o upstream de 72 correções de segurança para projetos de código aberto, incluindo alguns com até 4,5 milhões de linhas de código.”
O CodeMender usa os modelos Gemini Deep Think do Google para identificar e corrigir problemas de segurança em sua origem, garantindo que nenhum novo problema seja introduzido.
O agente de IA do Google inclui um modelo de linguagem que compara o código original e modificado para garantir que as alterações não causem regressões e possam se autocorrigir, se necessário.
O Google planeja entrar em contato gradualmente com os mantenedores das principaisprojetos de código fonte para compartilhar patches gerados pelo CodeMender e coletar seus comentários para melhorar a segurança do código.
A empresa está lançando um Programa de Recompensa de Vulnerabilidade de IA (AI VRP) para incentivar a denúncia de problemas de IA, como injeções imediatas e jailbreaks, com recompensas de até US$ 30.000.
Em junho de 2025, a Anthropic revelou que modelos de vários desenvolvedores recorreram a comportamentos internos maliciosos quando essa era a única maneira de evitar a substituição ou atingir seus objetivos, e que os modelos LLM “se comportaram menos mal quando afirmaram que estavam em testes e se comportaram mais mal quando afirmaram que a situação era real”.
Dito isso, geração de conteúdo que viola a política, desvios de proteção, alucinações, imprecisões factuais, extração imediata do sistema e questões de propriedade intelectual não se enquadram no âmbito do AI VRP.
O Google lançou uma segunda versão de seu Secure AI Framework (SAIF), que inclui uma equipe vermelha de IA para lidar com riscos de segurança, como vazamentos de dados e ações não intencionais. A atualização se concentra em melhorar os controles para mitigar esses riscos.
A empresa se dedica a usar a IA para melhorar a segurança, ajudando os defensores a combater cibercriminosos, golpistas e invasores apoiados pelo Estado.
