A plataforma NVIDIA Blackwell demonstrou um desempenho notável nos benchmarks MLPerf Training 4.1, destacando-se em múltiplas cargas de trabalho.
Os testes mostraram que a Blackwell alcançou até 2,2 vezes mais desempenho por GPU em benchmarks para modelos de linguagem de grande escala (LLM), como o Llama 2 70B e o GPT-3 175B.
Estes resultados posicionam a nova plataforma da NVIDIA como uma referência na computação acelerada para treino de modelos de inteligência artificial generativa.
Ao mesmo tempo, a plataforma NVIDIA Hopper manteve o seu domínio em benchmarks de larga escala, com destaque para a utilização de 11.616 GPUs no treino do modelo GPT-3 175B. Estes resultados consolidam a presença da NVIDIA no mercado de IA, proporcionando melhorias significativas em eficiência e escalabilidade.
Avanços tecnológicos na arquitetura Blackwell
O envio inaugural da arquitetura Blackwell para o consórcio MLCommons sublinhou avanços importantes na eficiência de treino de IA generativa. A arquitetura beneficia de novos kernels que otimizam o uso dos Tensor Cores, responsáveis por operações fundamentais de deep learning, como multiplicações de matrizes.
A Blackwell distingue-se pela maior taxa de transferência de computação e memória de alta largura de banda, permitindo executar o benchmark GPT-3 175B com apenas 64 GPUs, sem comprometer o desempenho por unidade. Em comparação, o mesmo teste realizado com a arquitetura Hopper exigiu 256 GPUs para atingir resultados equivalentes. Esta eficiência é alcançada através da utilização da memória HBM3e, que oferece uma largura de banda superior.
Num benchmark anterior de inferência, a Blackwell demonstrou um aumento de até 4 vezes no desempenho em comparação com a geração anterior, Hopper, ao utilizar precisão FP4 e o sistema de quantização NVIDIA QUASAR.
Otimização contínua impulsiona desempenho
A NVIDIA investe continuamente no desenvolvimento de software para melhorar o desempenho das suas plataformas em tarefas de treino e inferência de modelos de IA. Nesta última ronda de benchmarks MLPerf, a plataforma Hopper apresentou uma melhoria de 1,3 vezes no desempenho por GPU no treino do GPT-3 175B desde a sua introdução.
Além disso, a empresa testou uma configuração de larga escala com 11.616 GPUs Hopper, ligadas por tecnologias de comunicação como NVLink e NVSwitch e a rede Quantum-2 InfiniBand. Desde o ano passado, as GPUs Hopper aumentaram o desempenho no treino do GPT-3 175B em mais de três vezes e registaram um incremento de 26% no ajuste fino de modelos Llama 2 70B através do método LoRA.
O compromisso da NVIDIA em otimizar as suas plataformas de computação acelerada reflete-se nos sucessivos aumentos de desempenho nos testes MLPerf. Este esforço contínuo garante melhorias no uso de software em contêineres e permite que parceiros e clientes maximizem os seus investimentos em infraestruturas de computação.
Parcerias estratégicas e colaboração no MLCommons
Os resultados obtidos pela NVIDIA são também impulsionados pela colaboração com parceiros estratégicos, incluindo fabricantes de sistemas e fornecedores de serviços em nuvem como ASUSTek, Azure, Cisco, Dell, Fujitsu, Lenovo, Oracle Cloud e Supermicro. Estas parcerias garantem que as tecnologias mais recentes da NVIDIA são integradas em soluções empresariais para um desempenho otimizado.
A NVIDIA, como membro fundador do consórcio MLCommons, sublinha a importância dos benchmarks padronizados para a avaliação de plataformas de inteligência artificial e computação de alto desempenho (HPC). Estes testes fornecem dados críticos para que as empresas possam tomar decisões informadas sobre investimentos tecnológicos.
Marcio Aguiar, diretor da divisão Enterprise da NVIDIA para a América Latina, destaca que os resultados refletem o compromisso da empresa em fornecer soluções de alto desempenho para um mercado em rápida evolução. Segundo ele, o objetivo é permitir que clientes e parceiros tirem o máximo proveito das tecnologias disponíveis, continuando a impulsionar o setor com soluções inovadoras.
Outros artigos interessantes: