
Redazione RHC:3 Dezembro 2025 08:32
Empresa francesa Mistral AI revelou seu Linha de modelos Mistral 3, Fazendo com que eles sejam totalmente código aberto sob a licença Apache 2.0 . A série inclui vários modelos compactos e densos com 3, 8 e 14 bilhões de parâmetros , assim como a nave capitânia Mistral Grande 3 modelo. Isso é um ” Mistura de Especialistas ” modelo com 41 bilhões de parâmetros ativos e 675 bilhões de parâmetros compartilhados , que a empresa chama de sua solução mais poderosa até hoje.
O Mistral Large 3 foi treinado do zero em aproximadamente 3.000 GPUs NVIDIA H200. Após treinamento adicional, o modelo alcançou o nível dos melhores modelos de treinamento open-source no processamento de consultas comuns , apoiou a compreensão de imagens e demonstrou excelente desempenho multilíngue, especialmente para idiomas além do inglês e do chinês.
No LMArena Classificação de código aberto modelos não especificamente projetados para raciocínios complexos, o Mistral Large 3 estreou em segundo lugar e entrou no top dez entre todos os modelos OSS.
Os desenvolvedores imediatamente lançaram tanto as versões básicas quanto educacionais de Mistral Grande 3. Uma versão separada focada no raciocínio foi prometida, que será lançada posteriormente. Essas versões abertas têm a intenção de servir como um ponto de partida para personalização baseada nas necessidades do negócio, inclusive do lado do cliente.
Para simplificar a implementação, a Mistral está colaborando com NVIDIA, vLLM e Red Hat . Um benchmark para Mistral Large 3 é publicado em NVFP4 Format, preparado usando o LLM-compressor projeto. Esta versão pode rodar eficientemente em Blackwell NVL72 sistemas, assim como em nós com 8 GPUs A100 ou H100 Usando vLLM . A NVIDIA adicionou kernels de atenção otimizados e MoEs Para a nova arquitetura, suporte para Preenchimento dividido e Decodificação , e, em colaboração com o Mistral, implementou a decodificação especulativa. Toda a extensão Mistral 3 é suportada em TensorRT-LLM e SGLang Permitindo desempenho máximo em baixa profundidade de bits e contexto longo.
Para cenários de borda e locais, a Mistral produz a família Ministral 3. Esses três modelos suportam 3, 8 e 14 bilhões de parâmetros , cada um disponível em básico, instrucional e raciocínio todas capazes de lidar com imagens. Graças ao suporte multilíngue e multiformato, eles são oferecidos como uma suíte universal para uma variedade de necessidades de negócios e desenvolvimento: desde serviços online até aplicações rodando localmente ou em dispositivos embarcados.
É dada ênfase especial à eficiência. Segundo Mistral, O Ministral 3 demonstra a melhor relação custo-benefício entre modelos de código aberto dessa categoria. Versões educativas igualam ou superam suas contrapartes em termos de precisão, enquanto em cenários reais frequentemente geram uma ordem de magnitude menor de tokens, reduzindo latência e custos.
Quando a precisão é o único fator importante, variantes de raciocínio podem levar mais tempo para ser calculadas e produzir uma resposta mais precisa. Como exemplo, eles citam o Ministerial 3 14B , que obteve cerca de 85% em sua categoria na Referência da Olimpíada AIME 2025.
Todos esses modelos são projetados não apenas para grandes data centers, mas também para sistemas de borda. A NVIDIA oferece distribuições ministeriais otimizadas para DGX Spark Estações RTX- PCs e laptops equipados, e Jetson Orin Plataformas. Isso significa A mesma pilha de modelos pode ser usada em aplicações que vão desde robótica e dispositivos inteligentes até serviços em nuvem.
A família Mistral 3 já está disponível em Mistral AI Studio , integrado com Amazon Bedrock, Azure Foundry, IBM WatsonX, OpenRouter, Fireworks e Together AI, e também está disponível em escala aberta no Mistral Grande 3 e Ministerial 3 coleções no Hugging Face.
Parceiros selecionados, como Modal e IA da Preguiça , oferece soluções prontas a ser usadas para inferência e retreinamento. NVIDIA NIM e AWS SageMaker Prometo adicionar suporte em breve.
Para empresas que buscam uma solução mais adequada aos desafios e dados do setor, a Mistral oferece Serviços de treinamento em modelos personalizados . Adicionalmente Documentação técnica detalhada para várias configurações incluindo Ministro 3 3B-25-12 , Ministro 3 8B-25-12 , Ministro 3 14B-25-12 e Mistral Grande 3 , está disponível no site, assim como materiais sobre governança e risco de IA no Centro de Governança de IA .
Dito isso, inteligência artificial também está caminhando para modelos de alto desempenho, abertos e de código aberto. Agora você pode escolher entre criar clusters internos e interoperáveis com seus próprios profissionais ou fornecer informações para a OpenAI e Google.
- Aplicações de IA
- Desenvolvimento de IA
- Modelos de IA
- Soluções de IA Personalizadas
- IA eficiente
- Computação de Alto Desempenho
- Aprendizado de máquina
- Mistral 3
- Mistral AI
- Processamento de Linguagem Natural
- IA de código aberto
Redazione
A equipe editorial do Red Hot Cyber é composta por um grupo de indivíduos e fontes anônimas que colaboram ativamente para fornecer informações e notícias iniciais sobre cibersegurança e computação em geral.