NVIDIA anuncia atualizações importantes para o Triton Inference Server, à medida que mais de 25 mil empresas implementam o NVIDIA AI Inference

Capital One, Microsoft, Samsung Medison, Siemens Energy e Snap estão entre os líderes mundiais da indústria usando a plataforma

A NVIDIA anuncia atualizações em sua plataforma de inferência de inteligência artificial (IA), NVIDIA AI Inference, que agora está sendo usada pela Capital One, Microsoft, Samsung Medison, Siemens Energy e Snap, entre seus mais de 25 mil clientes. As atualizações incluem novos recursos no software de código aberto NVIDIA Triton Inference Server™, que fornece inferência de plataforma cruzada a todos os modelos e estruturas de IA, e no NVIDIA TensorRT™, que otimiza modelos de IA e fornece melhor tempo de execução para inferência de alto desempenho em GPUs NVIDIA.

A empresa também introduziu a mais nova GPU NVIDIA A2 Tensor Core, um acelerador de baixo consumo e pequeno para inferência de IA na borda, que oferece até 20 vezes mais desempenho de inferência do que as CPUs.

A plataforma de inferência de IA da NVIDIA está promovendo avanços em praticamente todos os setores, incluindo saúde, serviços financeiros, varejo, manufatura e supercomputação”, afirma Ian Buck, vice-presidente e gerente geral de computação acelerada da NVIDIA. “Seja oferecendo recomendações mais inteligentes, aproveitando o poder da IA de conversação ou promovendo descobertas científicas, a plataforma da NVIDIA para inferência oferece baixa latência, alto rendimento e desempenho versátil com a facilidade de uso necessária para alimentar novos aplicativos de IA em todo o mundo”.

 

Otimizações chave de software

As atualizações do Triton Inference Server incluem:

  • Triton Model Analyzer - essa nova ferramenta automatiza uma tarefa de otimização chave, ajudando a selecionar as melhores configurações para modelos de IA entre centenas de possibilidades. Ela atinge o desempenho ideal ao mesmo tempo em que garante a qualidade do serviço necessária para as aplicações;
  • Funcionalidade multi-GPU multi-nós - essa nova funcionalidade permite maiores modelos de linguagem baseados em Transformer, como o Megatron 530B e que não cabem mais em uma única GPU, serem inferidos em várias GPUs e nós de servidor, fornecendo desempenho de inferência em tempo real;
  • RAPIDS FIL - esse novo backend para inferência de GPUs ou CPU de radom forest e modelos de árvore de decisão com gradiente aumentado fornece, aos desenvolvedores, um mecanismo de implantação unificado para aprendizado profundo e aprendizado de máquina tradicional com Triton;
  • Integração Amazon SageMaker - essa integração permite que os clientes implantem, facilmente, modelos de múltiplas estruturas com alto desempenho usando Triton dentro do SageMaker, o serviço de IA totalmente gerenciado da AWS;
  • Suporte para CPUs Arm - Triton agora inclui backends para otimizar cargas de trabalho de inferência de IA em CPUs Arm, além de GPUs NVIDIA e CPUs x86.

Triton fornece inferência de IA em GPUs e CPUs na nuvem, data centers, enterprise edge e sistemas embarcados. Pode ser integrado à AWS, Google Cloud, Microsoft Azure e Alibaba Cloud PAI-EAS e está inclusa no NVIDIA AI Enterprise.

O NVIDIA AI Enterprise é um pacote de software ponta-a-ponta para desenvolvimento e implantação de IA. Ele é otimizado, certificado e suportado pela NVIDIA para permitir que os clientes executem cargas de trabalho de IA em servidores convencionais em data centers locais e nuvens privadas.

Além do Triton, o TensorRT agora está integrado ao TensorFlow e o PyTorch, fornecendo desempenho três vezes mais rápido em comparação com a estrutura de inferência em framework com apenas uma linha de código. “Isso fornece aos desenvolvedores o poder do TensorRT em um fluxo de trabalho amplamente simplificado”, explica Marcio Aguiar, diretor da NVIDIA Enterprise para América Latina.

O NVIDIA TensorRT 8.2, a versão mais recente do SDK, acelera a inferência de aprendizado profundo de alto desempenho, oferecendo alto rendimento e baixa latência na nuvem, no local ou na borda. Com as novas otimizações, modelos de linguagem com bilhões de parâmetros podem ser executados em tempo real.

 

Líderes do setor adotam a plataforma para inferência de IA da NVIDIA

Os líderes do setor estão usando a plataforma de inferência de IA da NVIDIA para melhorar suas operações de negócios e oferecer aos seus clientes novos serviços habilitados para IA.

O Microsoft Azure Cognitive Services fornece APIs baseadas em nuvem para modelos de IA de alta qualidade para criar aplicativos inteligentes. Ele está usando o Triton para executar modelos de fala para texto que fornecem aos usuários do Microsoft Teams legendas e transcrições precisas.

O Microsoft Teams é uma ferramenta essencial para comunicação e colaboração em todo o mundo, com quase 250 milhões de usuários ativos por mês”, diz Shalendra Chhabra, principal gerente de PM para chamadas e reuniões no Teams e dispositivos na Microsoft. “Modelos de IA como esses são incrivelmente complexos, exigindo dezenas de milhões de parâmetros de rede neural para fornecer resultados precisos em dezenas de idiomas diferentes. Quanto maior for o modelo, mais difícil será operá-lo de maneira econômica em tempo real. As GPUs NVIDIA e o Triton Inference Server no Microsoft Azure Cognitive Services estão ajudando a impulsionar os recursos de legenda e transcrição ao vivo de maneira econômica, usando 28 idiomas e dialetos, com IA quase em tempo real”.

A Samsung Medison, empresa global de equipamentos médicos e afiliada da Samsung Electronics, está usando o NVIDIA TensorRT para fornecer qualidade de imagem médica aprimorada usando recursos do Intelligent Assist para seus sistemas de ultrassom. A Samsung Medison se dedica a melhorar a vida dos seus pacientes e dos profissionais de saúde, melhorando seu conforto, reduzindo o tempo de digitalização, simplificando o fluxo de trabalho e, por fim, aumentando a produtividade do sistema.

Aproveitando o NVIDIA TensorRT no novo sistema de ponta V8 para ultrassom, podemos oferecer melhor suporte aos especialistas médicos ao ler e diagnosticar imagens”, afirma Won-Chul Bang, vice-presidente e chefe da equipe de experiência do cliente da Samsung Medison. “Estamos introduzindo ativamente tecnologias baseadas em IA em nossos sistemas de ultrassom para fornecer melhor suporte aos profissionais médicos, para que eles possam se concentrar nos aspectos mais importantes do diagnóstico e tratamento de pacientes”.

A Siemens Energy, empresa com soluções líderes em tecnologia de energia, está usando o Triton para ajudar seus clientes de usinas de energia a gerenciarem suas instalações com IA.

A flexibilidade do NVIDIA Triton Inference Server está permitindo que usinas de energia altamente complicadas, muitas vezes equipadas com câmeras e sensores, mas com sistemas de software legados, se juntem à revolução industrial autônoma”, conta Arik Ott, gerente de portfólio de operações autônomas da Siemens Energy.

A Snap, empresa de mídias sociais que compreende produtos e serviços como Snapchat, Spectacles e Bitmoji, está usando a tecnologia NVIDIA para melhorar a monetização e reduzir seus custos.

A Snap usou GPUs NVIDIA e TensorRT para melhorar a eficiência de custo de inferência de machine learning em 50% e para diminuir a latência de serviço em duas vezes", diz Nima Khajehnouri, vice-presidente de engenharia do grupo de mapeamento e monetização da Snap. "Isso nos dá margem de manobra de computação para experimentar e implantar modelos de classificação de conteúdo e anúncios mais pesados e precisos”.

 

A NVIDIA AI Platform for Inference inclui novos sistemas certificados pela NVIDIA e nova GPU A2

A NVIDIA-Certified Systems™ permite que os clientes identifiquem, adquiram e implantem sistemas para diversas aplicações modernas de IA em uma infraestrutura de alto desempenho, econômica e escalonável, e agora inclui duas novas categorias para IA de borda.

As categorias expandidas permitem que os parceiros de sistemas da NVIDIA ofereçam aos clientes uma linha completa de sistemas certificados pela NVIDIA, com GPUs baseadas na arquitetura NVIDIA Ampere para lidar com praticamente todas as cargas de trabalho. Isso inclui a nova GPU NVIDIA A2, um acelerador compacto de baixo consumo de energia para inferência e IA de borda em servidores de borda. Com o NVIDIA A30 para servidores corporativos convencionais e o NVIDIA A100 para os servidores de IA de mais alto desempenho, a adição do NVIDIA A2 oferece aceleração de inferência de inteligência artificial abrangente em borda, data center e nuvem.

Os principais fornecedores de sistemas empresariais globais, como Atos, Dell Technologies, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo e Supermicro oferecem suporte à NVIDIA AI Enterprise em sistemas certificados pela NVIDIA em seus portfólios de sistemas de IA.

Provedores de sistema adicionais, como Advantech, ASRock Rack, ASUS, H3C, Nettrix e QCT também oferecem sistemas certificados pela NVIDIA para uma variedade de cargas de trabalho. Os primeiros sistemas certificados pela NVIDIA a passarem na certificação nas novas categorias de ponta estarão disponíveis em breve nos principais fornecedores, incluindo Advantech, GIGABYTE e Lenovo.

 

Disponibilidade

O Triton está disponível no catálogo NVIDIA NGC™, um hub para softwares de IA otimizado para GPU, incluindo estruturas, kits de ferramentas, modelos pré-treinados e Jupyter Notebooks, e com o código-fonte aberto do repositório Triton GitHub.

O TensorRT está disponível para membros do programa NVIDIA Developer na página TensorRT. As versões mais recentes de plug-ins, analisadores e amostras também estão disponíveis com código aberto no repositório TensorRT GitHub.

Os clientes podem experimentar o NVIDIA Triton no pacote de software NVIDIA AI Enterprise por meio de laboratórios com curadoria disponíveis em todo o mundo no NVIDIA LaunchPad.

O pacote de software NVIDIA AI Enterprise está disponível em parceiros de canal mundiais da NVIDIA, incluindo Atea, Axians, Carahsoft Technology Corp., Computacenter, Insight Enterprises, Presidio, Sirius, SoftServe, SVA System Vertrieb Alexander GmbH, TD SYNNEX, Trace3 e WWT.

 

Sobre a NVIDIA 

A invenção da GPU pela NVIDIA (NASDAQ: NVDA), em 1999, estimulou o crescimento do mercado de games para PC e redefiniu a computação gráfica moderna, computação de alto desempenho e Inteligência Artificial. O trabalho pioneiro da empresa em computação acelerada e IA tem revolucionado setores de trilhões de dólares, como transporte, saúde e manufatura, enquanto incentiva o crescimento de muitos outros mercados. Saiba mais em http://nvidianews.nvidia.com/ 

Acesse também: 

Site oficial da NVIDIA no Brasil: https://www.nvidia.com/pt-br/  

Facebook: @NVIDIABrasil 

Twitter: @NVIDIABrasil 

Certas declarações neste comunicado à imprensa, incluindo, mas não se limitando a, declarações sobre: os benefícios, impacto, recursos e disponibilidade da plataforma NVIDIA AI, o Triton Inference Server, NVIDIA TensorRT, NVIDIA AI Enterprise, NVIDIA A2 Tensor Core GPU, NVIDIA A30, NVIDIA A100, sistemas certificados pela NVIDIA e o catálogo NVIDIA NGC; A plataforma de inferência de IA da NVIDIA conduzindo inovações em praticamente todos os setores, incluindo saúde, serviços financeiros, varejo, manufatura e supercomputação; e os líderes da indústria que adotam a plataforma NVIDIA AI para inferência são declarações prospectivas que estão sujeitas a riscos e incertezas que podem fazer com que os resultados sejam materialmente diferentes das expectativas. Os fatores importantes que podem fazer com que os resultados reais difiram materialmente incluem: condições econômicas globais; nossa dependência de terceiros para fabricar, montar, embalar e testar nossos produtos; o impacto do desenvolvimento tecnológico e da competição; desenvolvimento de novos produtos e tecnologias ou aprimoramentos de nossos produtos e tecnologias existentes; aceitação de mercado de nossos produtos ou produtos de nossos parceiros; defeitos de projeto, fabricação ou software; mudanças nas preferências ou demandas do consumidor; mudanças nos padrões e interfaces da indústria; perda inesperada de desempenho de nossos produtos ou tecnologias quando integrados em sistemas; bem como outros fatores detalhados de tempos em tempos nos relatórios mais recentes arquivos da NVIDIA com a Securities and Exchange Commission, ou SEC, incluindo, mas não se limitando a, seu relatório anual no Formulário 10-K e relatórios trimestrais no Formulário 10-Q . Cópias dos relatórios enviados à SEC são publicadas no site da empresa e estão disponíveis na NVIDIA gratuitamente. Estas declarações prospectivas não são garantias de desempenho futuro e falam apenas na data deste documento e, exceto conforme exigido por lei, a NVIDIA se isenta de qualquer obrigação de atualizar essas declarações prospectivas para refletir eventos ou circunstâncias futuras.

© 2021 NVIDIA Corporation. Todos os direitos reservados. NVIDIA, o logotipo NVIDIA, NGC, NVIDIA Certified-Systems, NVIDIA Triton Inference Server e TensorRT são marcas comerciais e / ou marcas registradas da NVIDIA Corporation nos EUA e em outros países. Outros nomes de empresas e produtos podem ser marcas comerciais das respectivas empresas às quais estão associados. Recursos, preços, disponibilidade e especificações estão sujeitos a alterações sem aviso prévio.

 

Informações para a Imprensa: 

Sing Comunicação de Resultados 

09/11/2021


Também encontrado em:


A Sing utiliza cookies e outras tecnologias semelhantes para melhorar a sua experiência, de acordo com a nossa política de privacidade e, ao continuar navegando, você concorda com estas condições.