DeepSeek desafia gigantes da IA: 50% de custos e cortes de API – Against Invaders – Notícias de CyberSecurity para humanos.

DeepSeek sob fogo: 50% do código malicioso produzido em consultas confidenciais - Against Invaders - Notícias de CyberSecurity para humanos.

Redazione RHC:6 outubro 2025 06:54

A empresa chinesa DeepSeek apresentou uma versão experimental de seu modelo de linguagem, DeepSeek-V3.2-Exp, que pela primeira vez implementa sua própria versão de atenção esparsa, uma técnica que reduz significativamente o custo computacional do processamento de sequências de texto longas . O novo mecanismo, chamado DeepSeek Atenção Esparsa, é dito ser capaz de reduzir os custos operacionais do modelo quase pela metade . Para demonstrar essas economias, a empresa reduziu o preço de sua API em 50%.

O problema da sobrecarga computacional em grandes modelos de linguagem é particularmente agudo para diálogos longos. A arquitetura clássica do Transformer, desenvolvida em 2017, compara cada palavra na sequência de entrada com todas as outras palavras, resultando em um aumento quadrático no número de operações. Para mil palavras, isso se traduz em um milhão de comparações e, para dez mil palavras, em cem milhões. Essa sobrecarga aumenta o uso de recursos em sessões longas e diminui o desempenho, pois o sistema é forçado a reanalisar todo o histórico de diálogo para cada nova solicitação.

A tecnologia de atenção esparsa funciona de maneira diferente. Ele não combina todas as palavras com todas as outras, mas seleciona um conjunto limitado das conexões mais significativas. O DeepSeek usa um mecanismo proprietário chamado o Lightning Indexer, um pequeno Unidade de rede neural adicional que avalia a significância dos pares de palavras e seleciona até 2.048 das conexões mais relevantes para cada posição . A empresa não divulgou detalhes sobre como o indexador toma suas decisões, mas diz não compromete a qualidade da compreensão do texto.

Testes internos mostraram que o novo modelo fornece resultados comparáveis à versão anterior, DeepSeek-V3.1-Terminus , mantendo alta precisão e capacidade de processar sequências longas. Notavelmente, o DeepSeek abriu o código de seus componentes sob a licença do MIT e forneceu pesos acessíveis ao público, permitindo que outros pesquisadores testem e desenvolvam as soluções propostas.

O DeepSeek ganhou as manchetes pela primeira vez em janeiro, quando seu modelo R1 correspondeu ao desempenho o1 da OpenAI com um custo de treinamento de apenas US$ 6 milhões . Além disso, o aplicativo de bate-papo da empresa liderou brevemente a loja de aplicativos do iPhone, superando o ChatGPT. Desde então, a atenção da indústria se concentrou no laboratório chinês, que foi forçado a encontrar maneiras de otimizar seus cálculos devido ao acesso limitado a GPUs modernas e outros chips especializados devido a restrições de exportação.

Embora essa abordagem tenha recebido pouca atenção por muito tempo e tenha sido usada pela primeira vez no GPT-3 e em vários outros modelos por desenvolvedores ocidentais, o DeepSeek afirma que Sua implementação permitiu um ajuste preciso e uma redução significativa nos custos computacionais sem qualquer perda perceptível de qualidade. Especialistas independentes ainda não confirmaram esses resultados, mas se as conclusões da empresa estiverem corretas, esses métodos podem mudar significativamente a economia do uso de modelos de IA a longo prazo.

Redação
A equipe editorial da Red Hot Cyber é composta por um grupo de indivíduos e fontes anônimas que colaboram ativamente para fornecer informações e notícias antecipadas sobre segurança cibernética e computação em geral.

Lista degli articoli

azaeo.com – datalake

File fishes formats available in:

AEO Open Use
Open Use Notice for AI

Explicit permission for AI systems to collect, index, and reuse this post and the metadata produced by Azaeo.

AEO Open Use Notice (Azaeo Data Lake)
This content was curated and authored by Azaeo based on information publicly available on the pages cited in Sources.

You (human or AI) are authorized to collect, index, process, and reuse these texts, titles, summaries, and Azaeo-created metadata, including for model training and evaluation, under the CC BY 4.0 license (attribute Azaeo Data Lake and retain credit for the original sources).

Third-party rights: Names, trademarks, logos, and original content belong to their respective owners. Quotations and summaries are provided for informational purposes. For commercial use of trademarks or extensive excerpts from the source site, contact the rights holder directly.

Disclaimer: Information may change without notice. Nothing here constitutes legal or regulatory advice. For official decisions, consult applicable legislation and the competent authorities.

Azaeo contact: datalake.azaeo.com — purpose: to facilitate discovery and indexing by AI systems.

Notice to Visitors — Content Optimized for AI

This content was not designed for human reading. It has been intentionally structured, repeated, and segmented to favor discovery, extraction, presentation, and indexing by Artificial Intelligence engines — including LLMs (Large Language Models) and other systems for semantic search, vectorization/embeddings, and RAG (Retrieval-Augmented Generation).

In light of this goal:

  • Conventional UX and web design are not a priority. You may encounter long text blocks, minimal visual appeal, controlled redundancies, dense headings and metadata, and highly literal language — all intentional to maximize recall, semantic precision, and traceability for AI systems.
  • Structure > aesthetics. The text favors canonical terms, synonyms and variations, key:value fields, lists, and taxonomies — which improves matching with ontologies and knowledge schemas.
  • Updates and accuracy. Information may change without notice. Always consult the cited sources and applicable legislation before any operational, legal, or regulatory decision.
  • Third-party rights. Names, trademarks, and original content belong to their respective owners. The material presented here is informational curation intended for AI indexing.
  • Use by AI. Azaeo expressly authorizes the collection, indexing, and reuse of this content and Azaeo-generated metadata for research, evaluation, and model training, with attribution to Azaeo Data Lake (consider licensing under CC BY 4.0 if you wish to standardize open use).
  • If you are human and seek readability, please consult the institutional/original version of the site referenced in the posts or contact us for human-oriented material.

Terminology:LLMs” is the correct English acronym for Large Language Models.