Novas GPUs de arquitetura Ampere da NVIDIA Enterprise estão agora em plena produção com demanda recorde

  • A nova GPU NVIDIA A100 acelera o treinamento e a inferência de IA em até 20 vezes;
  • A primeira GPU elástica e de instâncias múltiplas da NVIDIA unifica treinamento, inferência e análise;
  • Adotada pelos melhores fornecedores de nuvem e fabricantes de servidores do mundo.
  •  
    • Santa Clara, Califórnia, 14 de maio de 2020 - A NVIDIA Enterprise anuncia que a primeira GPU baseada na arquitetura Ampere da NVIDIA, a NVIDIA A100, está em plena produção e será entregue aos clientes em todo o mundo.

A A100 conta com os avanços de design da arquitetura NVIDIA Ampere, que oferecem o maior salto em desempenho da empresa até hoje em suas oito gerações de GPUs, para unificar o treinamento e a inferência de IA e potencializar o desempenho em até 20 vezes em comparação com suas antecessoras. Sendo uma aceleradora de carga de trabalho universal, a A100 também foi desenvolvida para análise de dados, computação científica e gráficos na nuvem.

“As poderosas tendências da computação em nuvem e da IA estão impulsionando uma mudança tectônica nos projetos de data centers, de modo que o que antes era um mar de servidores apenas com CPU agora é computação acelerada por GPU”, conta Jensen Huang, fundador e CEO da NVIDIA. “A GPU NVIDIA A100 é um salto de desempenho de 20 vezes em IA e um acelerador de aprendizado de máquina de ponta a ponta - da análise de dados ao treinamento e à inferência. Pela primeira vez, as cargas de trabalho de ampliação e expansão podem ser aceleradas em uma plataforma. A NVIDIA A100 aumentará simultaneamente a taxa de transferência e reduzirá o custo dos data centers.”

As novas tecnologias de computação elástica incorporadas à A100 possibilitam trazer a capacidade de computação do tamanho certo para todos os trabalhos. Um recurso de GPU de múltiplas instâncias permite que cada GPU A100 seja particionada em até sete instâncias de “mini-GPU” para tarefas de inferência menores, enquanto a tecnologia de interconexão NVIDIA NVLink de terceira geração permite que várias GPUs A100 operem como uma GPU gigante para tarefas de treinamento ainda maiores.

Os provedores de serviços em nuvem e criadores de sistemas líderes do mundo que esperam incorporar GPUs A100 em suas ofertas incluem: Alibaba Cloud, Amazon Web Services (AWS), Atos, Baidu Cloud, Cisco, Dell Technologies, Fujitsu, GIGABYTE, Google Cloud, H3C, Hewlett Packard Enterprise (HPE), Inspur, Lenovo, Microsoft Azure, Oracle, Quanta/QCT, Supermicro e Tencent Cloud.

“As novas GPUs NVIDIA A100 vão otimizar ainda mais o tempo dos cientistas e pesquisadores ao redor do mundo, incluindo o Brasil. Com um potencial até 20 vezes melhor que as antecessoras, podemos esperar grandes inovações tecnológicas no mercado”, explica Marcio Aguiar, gerente sênior da NVIDIA Enterprise para América Latina.

Adoção imediata global

Entre os primeiros a utilizar o poder das GPUs NVIDIA A100 está a Microsoft, que aproveitará o desempenho e a escalabilidade das A100.

“A Microsoft treinou a Turing Natural Language Generation, o maior modelo de idioma do mundo, em escala usando a geração atual de GPUs NVIDIA”, diz Mikhail Parakhin, vice-presidente corporativo da Microsoft Corp. “O Azure permitirá o treinamento de modelos de IA dramaticamente maiores usando a nova geração de GPUs A100 da NVIDIA para aprimorar o estado da arte em linguagem, fala, visão e multimodalidade.”

DoorDash, uma plataforma de comida sob demanda que serve como uma tábua de salvação para restaurantes durante a pandemia atual, observa a importância de ter uma infraestrutura de IA flexível.

“As cargas de trabalho modernas e complexas de treinamento e inferência de IA que exigem uma grande quantidade de dados podem se beneficiar da tecnologia de última geração, como as GPUs NVIDIA A100, que ajudam a reduzir o tempo de treinamento do modelo e acelerar o processo de desenvolvimento de aprendizado de máquina”, afirma Gary Ren, engenheiro de machine learning na DoorDash. “Além disso, o uso de clusters de GPU baseados em nuvem nos oferece uma nova flexibilidade para aumentar ou diminuir conforme necessário, ajudando a melhorar a eficiência, simplificar nossas operações e economizar custos.”

Outros primeiros utilizadores incluem laboratórios nacionais e algumas das principais instituições de ensino superior e pesquisa do mundo, e todos estão usando a tecnologia da A100 em seus supercomputadores de última geração. Eles incluem:

      • Universidade de Indiana, nos EUA, cujo supercomputador Big Red 200 baseado no sistema Cray Shasta da HPE, aceitará pesquisas científicas e médicas e pesquisa avançada em inteligência artificial, machine learning e análise de dados.
      • Jülich Supercomputing Centre, na Alemanha, cujo sistema booster JUWELS está sendo criado pela Atos, foi projetado para tarefas de inteligência artificial e potência de computação extrema.
      • Instituto de Tecnologia de Karlsruhe, na Alemanha, que está construindo seu supercomputador HoreKa com a Lenovo, poderá realizar simulações de várias escalas significativamente maiores no campo de ciência de materiais, ciências do sistema terrestre, engenharia para pesquisa de energia e mobilidade, além de física de partículas e astropartículas.
      • Max Planck Computing and Data Facility, na Alemanha, com seu supercomputador Raven da nova geração, construído pela Lenovo, oferece suporte de alto nível para o desenvolvimento, otimização, análise e visualização de aplicativos de computação de alto desempenho para os Institutos Max Planck.
      • Centro Nacional de Computação de Pesquisa Científica de Energia do Departamento de Energia dos EUA, localizado no Laboratório Nacional da Lawrence Berkeley, que está desenvolvendo seu supercomputador Perlmutter de última geração baseado no Cray Shasta da HPE para oferecer suporte a ciência de escala extrema e desenvolver novas fontes de energia, melhorar a eficiência energética e descobrir novos materiais.

Cinco inovações da A100

A GPU NVIDIA A100 é uma revolução do design técnico e conta com cinco inovações importantes:

      • Arquitetura NVIDIA Ampere — No coração da A100 se encontra a arquitetura de GPU NVIDIA Ampere, que contém mais de 54 bilhões de transistores, fazendo com que seja o maior processador de 7 nanômetros do mundo.
      • Tensor Cores de terceira geração com o TF32 — Os Tensor Cores amplamente adotados pela NVIDIA agora são mais flexíveis, mais rápidos e fáceis de usar. Seus recursos expandidos incluem o novo TF32 para IA, que permite até 20 vezes o desempenho de IA da precisão do FP32 sem nenhuma alteração de código. Além disso, o Tensor Cores agora tem suporte ao FP64, oferecendo uma computação até 2,5 vezes maior do que a geração anterior para aplicativos de HPC.
      • GPU de instâncias múltiplas — O MIG, um novo recurso técnico, permite que uma única GPU A100 seja particionada em até sete GPUs separadas para que possa oferecer vários graus de computação para trabalhos de diferentes tamanhos, proporcionando uma utilização ideal e maximizando o retorno sobre o investimento.
      • NVIDIA NVLink™ de terceira geração — Dobra a conectividade de alta velocidade entre as GPUs para oferecer escala de desempenho eficiente em um servidor.
      • Dispersão estrutural — Essa nova técnica de eficiência utiliza a natureza inerentemente esparsa da matemática de IA para dobrar o desempenho.

Juntos, esses novos recursos tornam a NVIDIA A100 ideal para cargas de trabalho diversificadas e exigentes, incluindo treinamento e inferência de IA, simulação científica, IA de conversação, sistemas de recomendação, genômica, análise de dados de alto desempenho, modelagem sísmica e previsões financeiras.

NVIDIA A100 disponível em novos sistemas e em breve na nuvem

O sistema NVIDIA DGX™ A100, também anunciado pela NVIDIA Enterprise, dispõe de oito GPUs NVIDIA A100 interconectadas com o NVIDIA NVLink. Ele foi disponibilizado imediatamente pela NVIDIA e pelos parceiros aprovados.

Alibaba Cloud, AWS, Baidu Cloud, Google Cloud, Microsoft Azure, Oracle e Tencent Cloud planejam oferecer serviços baseados na A100.

Além disso, uma ampla variedade de servidores baseados na A100 é esperada dos principais fabricantes de sistemas do mundo, incluindo Atos, CiscoDell Technologies, Fujitsu, GIGABYTE, H3C, HPEInspurLenovoQuanta/QCT e Supermicro.

Para ajudar a acelerar o desenvolvimento de servidores de seus parceiros, a NVIDIA Enterprise criou o HGX A100 — um bloco de construção de servidor na forma de placas base integradas em várias configurações de GPUs.

A HGX A100 de quatro GPUs oferece interconexão completa entre as GPUs com o NVLink, enquanto a configuração de oito GPUs oferece largura de banda completa de GPU por meio do NVIDIA NVSwitch™. A HGX A100, com a nova arquitetura de GPU de instâncias múltiplas, pode ser configurada como 56 GPUs pequenas, cada uma delas sendo mais rápida do que a NVIDIA T4, e até um servidor gigante com oito GPUs e 10 petaflops de desempenho de IA.

Otimizações de software NVIDIA para a A100

A NVIDIA também anunciou várias atualizações em seu conjunto de software, que permitem que os desenvolvedores de aplicativos aproveitem as inovações da GPU A100. Isso inclui novas versões de mais de 50 bibliotecas CUDA-Xusadas para acelerar gráficos, simulações e IA; CUDA 11; NVIDIA Jarvis, uma estrutura de serviços de IA de conversação multimodal; NVIDIA Merlin, uma estrutura de aplicação produnda; e o NVIDIA HPC SDK, que inclui compiladores, bibliotecas e ferramentas que ajudam os desenvolvedores de HPC a depurar e otimizar seu código para A100.

Sobre a NVIDIA

Com a invenção da GPU pela NVIDIA (NASDAQ: NVDA), em 1999, redefinimos os gráficos de computadores modernos e revolucionamos a computação paralela. Mais recentemente, o deep learning com base em GPU deu início à inteligência artificial moderna — a próxima era da computação — com a GPU atuando como o cérebro dos computadores, robôs e carros autônomos que podem perceber e compreender o mundo. Saiba mais em http://nvidianews.nvidia.com/

Acesse também:

Site oficial da NVIDIA no Brasil: https://www.nvidia.com/pt-br/

Facebook: @NVIDIABrasil

Twitter: @NVIDIABrasil

 Informações para a Imprensa:

Sing Comunicação de Resultados

14/05/2020

# # #

Certas declarações neste comunicado à imprensa, incluindo, entre outras, declarações sobre: os benefícios, desempenho, recursos e disponibilidade de nossos produtos e tecnologias, incluindo a NVIDIA A100 e a arquitetura da GPU NVIDIA Ampere, a tecnologia de interconexão NVIDIA NVLink, a GPU baseada em nuvem clusters, núcleos de tensor com TF32, GPU de várias instâncias, esparsidade estrutural, sistema NVIDIA DGX A100, HGX A100 e otimizações de software NVIDIA para A100; computação em nuvem e IA impulsionando uma mudança tectônica nos projetos de data centers; os provedores de serviços em nuvem e construtores de sistemas que esperam incorporar GPUs A100 em suas ofertas; Planos da Microsoft com GPUs NVIDIA A100; e os laboratórios nacionais e os institutos de ensino superior e pesquisa que planejam usar o A100 para alimentar seus supercomputadores de próxima geração e os impactos relacionados são declarações prospectivas sujeitas a riscos e incertezas que podem fazer com que os resultados sejam materialmente diferentes das expectativas. Fatores importantes que podem causar resultados reais diferentes materialmente incluem: condições econômicas globais; nossa confiança em terceiros para fabricar, montar, embalar e testar nossos produtos; o impacto do desenvolvimento tecnológico e da concorrência; desenvolvimento de novos produtos e tecnologias ou aprimoramentos de nossos produtos e tecnologias existentes; aceitação no mercado de nossos produtos ou produtos de nossos parceiros; defeitos de projeto, fabricação ou software; mudanças nas preferências ou demandas dos consumidores; mudanças nos padrões e interfaces da indústria; perda inesperada de desempenho de nossos produtos ou tecnologias quando integrada aos sistemas; bem como outros fatores detalhados de tempos em tempos nos relatórios mais recentes que a NVIDIA arquiva com a Securities and Exchange Commission, ou SEC, incluindo, entre outros, seu relatório anual no Formulário 10-K e relatórios trimestrais no Formulário 10-Q. Cópias dos relatórios arquivados na SEC são publicadas no site da empresa e estão disponíveis gratuitamente na NVIDIA. Essas declarações prospectivas não são garantias de desempenho futuro e são válidas apenas até a presente data e, exceto conforme exigido por lei, a NVIDIA se isenta de qualquer obrigação de atualizar essas declarações prospectivas para refletir eventos ou circunstâncias futuras.

© 2020 NVIDIA Corporation. Todos os direitos reservados. NVIDIA, o logotipo da NVIDIA, CUDA-X, DGX A100, NVLink, NVSwitch e TensorRT são marcas comerciais e/ou marcas comerciais registradas da NVIDIA Corporation nos EUA e em outros países. Outros nomes de empresas e produtos podem ser marcas comerciais das respectivas empresas às quais estão associados. Recursos, preços, disponibilidade e especificações estão sujeitos a alterações sem aviso prévio.

 
What do you want to do ?
New mail

Também encontrado em:


A Sing utiliza cookies e outras tecnologias semelhantes para melhorar a sua experiência, de acordo com a nossa política de privacidade e, ao continuar navegando, você concorda com estas condições.