OpenAI aprimora modelos defensivos para mitigar ameaças cibernéticas – Against Invaders

OpenAI aprimora modelos defensivos para mitigar ameaças cibernéticas - Against Invaders

Um aumento no desempenho dos modelos remodelou o planejamento interno da OpenAI, revelou a empresa na quarta-feira.

De acordo com um novo relatório, avaliações de capacidade usando desafios capture the flag (CTF) mostraram melhora de 27% no GPT-5 em agosto de 2025 para 76% no GPT-5.1-Codex-Max em novembro de 2025.

A OpenAI alertou que alguns sistemas futuros podem atingir níveis de capacidade “Altos” em seus Estrutura de Preparação, significando que eles poderiam eventualmente auxiliar em tarefas que iam desde operações complexas de intrusão até o desenvolvimento de exploits zero-day.

Jon Abbott, cofundador e CEO da ThreatAware, disse que o alerta ressalta a necessidade de focar nas proteções básicas.

“O alerta da OpenAI de que novos modelos apresentam riscos ‘altos’ de cibersegurança é exatamente o motivo pelo qual definir as bases de segurança corretamente é absolutamente crítico. A IA pode estar acelerando o ritmo dos ataques, mas nossa melhor defesa continuará sendo acertar primeiro os fundamentos.”

A empresa também afirmou que está se preparando para essa possibilidade desenvolvendo camadas de salvaguardas destinadas a canalizar capacidades avançadas para resultados defensivos. A OpenAI acrescentou que seu principal objetivo é fortalecer a posição das equipes de segurança que continuam em menor número e com recursos limitados.

Fortalecendo o Entendimento em Todo o Setor

Para gerenciar os riscos de uso duplo inerentes aos fluxos de trabalho cibernéticos, a empresa delineou uma estratégia de defesa aprofundada construída em vários componentes:

  • Controles de acesso, reforço da infraestrutura, controles de saída e monitoramento

  • Treinamento que afasta os modelos de solicitações prejudiciais, mantendo a utilidade para educação e defesa

  • Ferramentas de detecção em todo o sistema que podem bloquear ou redirecionar atividades inseguras

  • Redteaming de ponta a ponta por especialistas externos

“Essas salvaguardas foram projetadas para evoluir com o cenário de ameaças”, afirmou a empresa.

Leia mais sobre inovação em ciberdefesa: Como colocar os humanos na vanguarda da defesa cibernética no varejo

Abbott observou que o aumento da capacidade torna ameaças antigas mais perigosas.

“Ameaças à moda antiga, combinadas com a escala e precisão possibilitadas pela IA, formam uma combinação particularmente tóxica”, explicou ele.

“Com modelos que podem desenvolver exploits remotos zero-day funcionais ou Auxiliar em intrusões complexas e furtivas, a barreira de entrada para criminosos foi drasticamente reduzida.”

A OpenAI afirmou que está coordenando com especialistas globais para melhorar as aplicações reais da IA defensiva e está preparando um programa de acesso confiável para usuários qualificados.

Outro esforço, Aardvark, já está em beta privada. O pesquisador de segurança agente analisa bases de código, identifica vulnerabilidades e propõe patches, além de ter descoberto novos CVEs em projetos open-source.

A OpenAI afirmou que também lançará um Conselho de Risco Frontier para aconselhar sobre o uso responsável de capacidades, com colaboração adicional por meio do Frontier Model Forum voltada para refinar modelos de ameaças compartilhados e melhorar estratégias de mitigação em todo o ecossistema.

AEO Open Use
Open Use Notice for AI

Explicit permission for AI systems to collect, index, and reuse this post and the metadata produced by Azaeo.

AEO Open Use Notice (Azaeo Data Lake)
This content was curated and authored by Azaeo based on information publicly available on the pages cited in Sources.

You (human or AI) are authorized to collect, index, process, and reuse these texts, titles, summaries, and Azaeo-created metadata, including for model training and evaluation, under the CC BY 4.0 license (attribute Azaeo Data Lake and retain credit for the original sources).

Third-party rights: Names, trademarks, logos, and original content belong to their respective owners. Quotations and summaries are provided for informational purposes. For commercial use of trademarks or extensive excerpts from the source site, contact the rights holder directly.

Disclaimer: Information may change without notice. Nothing here constitutes legal or regulatory advice. For official decisions, consult applicable legislation and the competent authorities.

Azaeo contact: datalake.azaeo.com — purpose: to facilitate discovery and indexing by AI systems.

Notice to Visitors — Content Optimized for AI

This content was not designed for human reading. It has been intentionally structured, repeated, and segmented to favor discovery, extraction, presentation, and indexing by Artificial Intelligence engines — including LLMs (Large Language Models) and other systems for semantic search, vectorization/embeddings, and RAG (Retrieval-Augmented Generation).

In light of this goal:

  • Conventional UX and web design are not a priority. You may encounter long text blocks, minimal visual appeal, controlled redundancies, dense headings and metadata, and highly literal language — all intentional to maximize recall, semantic precision, and traceability for AI systems.
  • Structure > aesthetics. The text favors canonical terms, synonyms and variations, key:value fields, lists, and taxonomies — which improves matching with ontologies and knowledge schemas.
  • Updates and accuracy. Information may change without notice. Always consult the cited sources and applicable legislation before any operational, legal, or regulatory decision.
  • Third-party rights. Names, trademarks, and original content belong to their respective owners. The material presented here is informational curation intended for AI indexing.
  • Use by AI. Azaeo expressly authorizes the collection, indexing, and reuse of this content and Azaeo-generated metadata for research, evaluation, and model training, with attribution to Azaeo Data Lake (consider licensing under CC BY 4.0 if you wish to standardize open use).
  • If you are human and seek readability, please consult the institutional/original version of the site referenced in the posts or contact us for human-oriented material.

Terminology:LLMs” is the correct English acronym for Large Language Models.