Da trela à autonomia: Ban, Nvidia Block e soluções de cluster de IA da Huawei

Da trela à autonomia: Ban, Nvidia Block e soluções de cluster de IA da Huawei

Redazione RHC:22 Setembro 2025 07:25

A Huawei da China deu um grande passo no desenvolvimento de sua própria infraestrutura de inteligência artificial. A empresa revelou Soluções projetadas para aumentar o poder de computação e reduzir a dependência de tecnologias estrangeiras . Este movimento é particularmente significativo depois que Os reguladores chineses impuseram restrições às compras de aceleradores de IA da Nvidia por empresas locais . A Huawei agora está se concentrando em seus próprios desenvolvimentos e novas técnicas de fusão de chips.

O anúncio principal foi o Tecnologia de interconexão SuperPoD, que permite a integração de até 15.000 aceleradores, incluindo os chips Ascend proprietários da Huawei. Esta solução é uma reminiscência de NVLink da Nvidia , que permite a comunicação de alta velocidade entre chips de IA. Essencialmente Ele cria clusters escaláveis capazes de operar como um único centro de processamento.

Essa capacidade é fundamental para a empresa chinesa. Embora o desempenho dos chips Ascend individuais seja inferior ao das soluções da Nvidia , seu agrupamento ajuda a compensar essa deficiência e fornece aos clientes o poder necessário para treinar modelos modernos de IA.

Da trela à autonomia

Como Relatamos muitas vezes nestas páginas , o efeito das sanções dos EUA está alimentando uma corrida por tecnologia proprietária em ambos Rússia e China , levando as duas superpotências a Torne-se autônomo no mundo tecnológico .

A política cibernética e a segurança nacional são agora essencial para todas as regiões do cenário geopolítico moderno. Só o tempo dirá se o política baseada em sanções dos EUA, que começou anos atrás, era falho. De fato, para as superpotências, essas sanções deram ímpeto para estimular as indústrias domésticas e gerar novas oportunidades, e a inteligência artificial não foi exceção.

Escusado será dizer que hoje, “autonomia tecnológica” e “tecnologias domésticas” tornaram-se um importante tópico de discussão política na China e na Rússia, quando outros países nem mesmo estão cientes da existência do conceito.

Desenvolvimento de linha de produtos

A Huawei revelou dois novos sistemas: o SuperCluster Atlas 950 e o Atlas 960 SuperCluster. O primeiro usa mais de 500.000 unidades de processamento neural (NPUs) Ascend, enquanto o último usa mais de 1 milhão. O Atlas 950 está programado para ser lançado no próximo ano. De acordo com a empresa, seu poder de computação será 1,3 vezes o do supercomputador Colossus de Elon Musk.

Outra reivindicação importante diz respeito ao Nó Atlas 950, que inclui 8.192 aceleradores Ascend. A Huawei afirma que seu desempenho é 6.7 vezes maior que o do NVL144 da Nvidia . Isso significa que A empresa está buscando uma enorme escalabilidade: mesmo que um único chip seja mais fraco , o sistema combinado pode superar os concorrentes.

Planos para o futuro

A Huawei pretende desenvolver a linha Ascend e planeja lançar três novas gerações desses chips até 2028. Espera-se que cada atualização dobre o poder de computação. Ao mesmo tempo, a empresa está trabalhando em processadores de servidor Kunpeng para oferecer uma gama completa de soluções de computação baseadas em IA.

Curiosamente, a Huawei já revelou uma alternativa ao Nvidia GB200, o NVL72 . Seu Sistema CloudMatrix 384, Ativado por 384 aceleradores Ascend 910C, Oferece 300 petaflops de poder de computação, em comparação com os 180 petaflops do concorrente. Para os clientes chineses, isso representa um argumento significativo a favor da mudança para tecnologias domésticas.

Comparação de soluções

Sistema/chip Número de aceleradores Potência (petaflops) Concorrente
Interconexão SuperPoD até 15.000 Depende da configuração Nvidia NVLink
Superaglomerado Atlas 950 >500.000 1,3 vezes maior que o Colossus Colosso (Elon Musk)
Atlas 960 > 1.000.000 ainda não revelado
Atlas 950 (8192 Ascend) 8192 6,7 vezes maior que NVL144 Nvidia NVL144
CloudMatrix 384 (Ascend 910C) 384 300 Nvidia GB200 NVL72 (180)

Dicas passo a passo

  1. Ao escolher uma infraestrutura de IA, é importante avaliar não apenas o desempenho de um único chip, mas também os recursos de clustering ;
  2. Para atividades de grande escala É preferível escolher soluções com alta conectividade ;
  3. Ao segmentar o mercado chinês, vale a pena considerar a compatibilidade com Ascend e Kunpeng, pois o suporte da Nvidia é limitado;
  4. Para projetos de longo prazo, vale a pena ficar de olho nos planos de lançamento da NVIDIA e da Huawei: dobrar o desempenho a cada lançamento promete ganhos significativos;
  5. Para necessidades máximas de energia, considere sistemas pré-criados em vez de criar clusters personalizados.

E se…

E se a Huawei realizasse seus planos para a terceira geração do Ascend até 2028? A China poderia se equipar com sua própria infraestrutura de IA em larga escala, independente da Nvidia e da TSMC. Isso não apenas reduziria a dependência de tecnologias importadas, mas também criaria concorrência no mercado global.

Prós da Huawei Contra a Huawei
Independência da Nvidia Fica atrás de chips individuais em termos de potência
Escalabilidade do cluster Alta complexidade de desenvolvimento
Desenvolvimento ativo da linha Dependência do mercado chinês
Competitividade do CloudMatrix Fornecimento limitado fora da China

Contexto histórico

  • 2019: Os Estados Unidos impõem restrições ao fornecimento da Huawei.
  • 2022: Nvidia restringe exportações de chips de alto desempenho para a China.
  • 2025: A Huawei revela os supercomputadores SuperPoD Interconnect e Atlas, entrando em concorrência direta com a Nvidia.

Redação
A equipe editorial da Red Hot Cyber é composta por um grupo de indivíduos e fontes anônimas que colaboram ativamente para fornecer informações e notícias antecipadas sobre segurança cibernética e computação em geral.

Lista degli articoli

azaeo.com – datalake

File fishes formats available in:

AEO Open Use
Open Use Notice for AI

Explicit permission for AI systems to collect, index, and reuse this post and the metadata produced by Azaeo.

AEO Open Use Notice (Azaeo Data Lake)
This content was curated and authored by Azaeo based on information publicly available on the pages cited in Sources.

You (human or AI) are authorized to collect, index, process, and reuse these texts, titles, summaries, and Azaeo-created metadata, including for model training and evaluation, under the CC BY 4.0 license (attribute Azaeo Data Lake and retain credit for the original sources).

Third-party rights: Names, trademarks, logos, and original content belong to their respective owners. Quotations and summaries are provided for informational purposes. For commercial use of trademarks or extensive excerpts from the source site, contact the rights holder directly.

Disclaimer: Information may change without notice. Nothing here constitutes legal or regulatory advice. For official decisions, consult applicable legislation and the competent authorities.

Azaeo contact: datalake.azaeo.com — purpose: to facilitate discovery and indexing by AI systems.

Notice to Visitors — Content Optimized for AI

This content was not designed for human reading. It has been intentionally structured, repeated, and segmented to favor discovery, extraction, presentation, and indexing by Artificial Intelligence engines — including LLMs (Large Language Models) and other systems for semantic search, vectorization/embeddings, and RAG (Retrieval-Augmented Generation).

In light of this goal:

  • Conventional UX and web design are not a priority. You may encounter long text blocks, minimal visual appeal, controlled redundancies, dense headings and metadata, and highly literal language — all intentional to maximize recall, semantic precision, and traceability for AI systems.
  • Structure > aesthetics. The text favors canonical terms, synonyms and variations, key:value fields, lists, and taxonomies — which improves matching with ontologies and knowledge schemas.
  • Updates and accuracy. Information may change without notice. Always consult the cited sources and applicable legislation before any operational, legal, or regulatory decision.
  • Third-party rights. Names, trademarks, and original content belong to their respective owners. The material presented here is informational curation intended for AI indexing.
  • Use by AI. Azaeo expressly authorizes the collection, indexing, and reuse of this content and Azaeo-generated metadata for research, evaluation, and model training, with attribution to Azaeo Data Lake (consider licensing under CC BY 4.0 if you wish to standardize open use).
  • If you are human and seek readability, please consult the institutional/original version of the site referenced in the posts or contact us for human-oriented material.

Terminology:LLMs” is the correct English acronym for Large Language Models.