O notável sucesso da nossa GPU Technology Conference  em maio não deixou dúvidas sobre o momento extraordinário da revolução de AI.

Durante os quatro dias do evento no Vale do Silício, diversos participantes de empresas líderes mundiais em mídia e entretenimento, manufatura, saúde e transporte compartilharam histórias de inovações que se tornaram possíveis com a computação em GPUs.

Os números contam uma história poderosa. Com mais de 7 mil participantes, 150 expositores e 600 sessões técnicas, nosso oitavo GTC anual foi o maior de todos os tempos. As 15 maiores empresas de tecnologia do mundo estiveram presentes, assim como as 10 maiores fabricantes de automóveis do mundo e mais de 100 startups focadas em AI e VR.

Por trás desses números, há uma confluência de tendências poderosas. A AI está sendo impulsionada por saltos na capacidade computacional que desafiam a lei de Moore. Os desenvolvedores de AI estão competindo para construir novas estruturas a fim de enfrentar alguns dos maiores desafios do nosso tempo. Eles querem executar softwares de AI em tudo, de poderosos serviços em nuvem a dispositivos de borda da nuvem.

A era da computação de AI – a era da computação em GPU

Apresentamos a Volta, a arquitetura de computação de AI mais avançada do mundo.

Na GTC, nós apresentamos a Volta, nosso maior avanço computacional desde a invenção da CUDA. Ela incorpora 21 bilhões de transistores. É construída em um processo TSMC de 12nm otimizado pela NVIDIA. Inclui as memórias HBM mais rápidas da Samsung. A Volta apresenta um novo formato numérico e uma instrução CUDA que executa operações de matriz 4×4 – uma operação elementar de deep learning – a velocidades superaltas.

Cada GPU Volta oferece 120 teraflops. E o nosso supercomputador DGX-1 AI interconecta oito GPUs Tesla V100 para gerar quase um petaflop de desempenho de deep learning.

TPU do Google

Também na GTC 2017, o Google anunciou em sua conferência I/O o chip TPU2, com 45 teraflops de desempenho.

É ótimo ver as duas equipes líderes na corrida de computação de AI em franca colaboração – ajustando o desempenho do TensorFlow e acelerando a nuvem do Google com GPUs NVIDIA CUDA. A AI é a maior força tecnológica da história humana. É ótimo ver os esforços para democratiza-la e permitir sua rápida adoção.

Superando o fim da lei de Moore

Conforme a lei de Moore diminui, aumenta o desempenho da computação em GPU, impulsionado por melhorias, desde o silício ao software.

A revolução da AI chegou (o efeito combinado da escala Dennard com o avanço da arquitetura da placa de vídeo), apesar de a lei de Moore ter começado a desacelerar há quase uma década. A escala de Dennard, na qual a redução do tamanho do transistor e da tensão permitiu que os designers aumentassem a densidade e a velocidade do transistor mantendo a densidade da potência, é limitada agora pela física do dispositivo.

Arquitetos de CPU podem coletar somente um modesto ILP (paralelismo no nível de instrução), mas com grandes aumentos em circuitos e energia. Assim, na era da lei pós-Moore, um grande aumento nos transistores de CPU e energia resulta em um pequeno aumento no desempenho do aplicativo. Recentemente, o desempenho aumentou somente 10% ao ano contra 50% ao ano no passado.

Nossa abordagem pioneira de computação acelerada visa domínios específicos de algoritmos, adiciona um processador especializado para descarregar a CPU e estabelece relações com desenvolvedores de todos os setores para acelerar seus aplicativos otimizando nossa arquitetura. Trabalhamos em toda a camada de algoritmos, solvers e aplicativos para eliminar todos os problemas e alcançando resultados muito rápidos.

É por isso que a Volta oferece acelerações incríveis para as cargas de trabalho de AI. Ela oferece uma melhoria de 5x em desempenho máximo de teraflops comparado a Pascal, a geração atual de arquitetura de GPUs da NVIDIA, e de 15x em relação à arquitetura Maxwell, lançada há apenas dois anos – muito além do que a lei de Moore poderia prever.

Acelerar todas as abordagens para AI

Esses saltos no desempenho atraíram inovadores de todos os setores, com o número de Startups que constroem serviços de AI apoiados em GPUs crescendo mais de 4 vezes ao longo do ano passado, chegando a 1.300 no total.

Ninguém quer perder a próxima inovação. O software está devorando o mundo, como Marc Andreessen disse, mas a AI está devorando o software.

O número de desenvolvedores de software seguindo as estruturas líderes de AI no repositório de software de código aberto GitHub cresceu de menos de 5.000 para mais de 75.000 nos últimos dois anos.

As estruturas mais recentes podem aproveitar o desempenho da Volta para oferecer treinamentos muito mais rápidos e maior desempenho de treinamento utilizando multiplos nós.

A tecnologia de deep learning é um imperativo estratégico para todas as grandes empresas de tecnologia. Ela permeia cada vez mais todos os aspectos do trabalho, desde a infraestrutura e as ferramentas até a forma como os produtos são fabricados. Fazemos parceria com todos os fabricantes de estruturas para obter o máximo de desempenho. Ao otimizar cada estrutura para nossa GPU, podemos melhorar a produtividade da engenharia em horas e dias para cada uma das centenas de iterações necessárias para treinar um modelo. Cada rede – Caffe2, Chainer, Microsoft Cognitive Toolkit, MXNet, PyTorch, TensorFlow – será meticulosamente otimizada para a Volta.

A plataforma NVIDIA GPU Cloud proporciona aos desenvolvedores de AI acesso ao nosso conjunto completo de software de deep learning onde quer que desejem – nos PCs, no centro de dados ou através da nuvem.

Queremos criar um ambiente que permita aos desenvolvedores fazerem seu trabalho em qualquer lugar e com qualquer estrutura. Para as empresas que desejam manter os seus dados in-house, introduzimos novos e potentes servidores e estações de trabalho durante o GTC.

Talvez o ambiente mais vibrante seja o mercado de 247 bilhões de dólares para serviços públicos em nuvem. Alibaba, Amazon, Baidu, Facebook, Google, IBM, Microsoft e Tencent usam GPUs NVIDIA em seus data centers.

Para ajudar os inovadores a mudarem sem problemas para serviços em nuvem como esses, na GTC lançamos a plataforma NVIDIA GPU Cloud, que contém um registro de conjuntos pré-configurados e otimizados de cada estrutura. Todas as camadas de software e as combinações foram sintonizadas, testadas e integradas em um contêiner NVDocker. Vamos aprimorá-lo e mantê-lo continuamente. Corrigimos todos os bugs que surgem. Tudo funciona.

Uma explosão cambriana de máquinas autônomas

A capacidade do deep learning de detectar características de dados brutos criou as condições para uma explosão cambriana de máquinas autônomas – IoT com AI. Haverá bilhões, talvez trilhões, de dispositivos alimentados por AI.

Na GTC, anunciamos que uma das 10 maiores empresas do mundo, e uma das mais admiradas, a Toyota, escolheu usar NVIDIA em seu carro autônomo.

Também anunciamos Isaac, um robô virtual que ajuda a fazer robôs. Os robôs de hoje são programados de forma manual e fazem exatamente e somente o que foram programados para fazer. Assim como as redes neurais nos trouxeram a inovação da visão computacional necessária para lidar com carros autônomos, o aprendizado por reforço e a aprendizagem por imitação podem ser os avanços de que precisamos para lidar com a robótica.

Isaac, apresentado na GTC, traz a aprendizagem por reforço e a aprendizagem por imitação para a robótica.

Uma vez treinado, o cérebro do robô seria baixado para o Jetson, nosso supercomputador de AI em um módulo. O robô ficaria de pé, adaptando-se a qualquer diferença entre o mundo virtual e o real. Um novo robô nasce. Para a GTC, Isaac aprendeu a jogar hóquei e golfe.

Finalmente, estamos abrindo o código do DLA (acelerador de deep learning) – a nossa versão de uma TPU de inferência dedicado – projetado no nosso superchip Xavier para carros com AI. Queremos ver AI ser adotada em todos os lugares o mais rápido possível. Ninguém mais precisa investir na construção de uma TPU de inferência. Oferecemos de forma gratuita, projetada por alguns dos melhores designers de chips do mundo.

Despertando os Einsteins e Da Vincis da nossa era

Estes são apenas os exemplos mais recentes de como a computação em GPU da NVIDIA se tornou a ferramenta essencial dos Da Vincis e Einsteins do nosso tempo. Para eles, construímos o equivalente a uma máquina do tempo. Com base na demanda insaciável de tecnologia de gráficos 3D e na escala de mercado de jogos, a NVIDIA transformou a GPU no cérebro do computador, o que deu início a uma enxurrada de inovação na empolgante intersecção entre realidade virtual e inteligência artificial.

Sobre Jensen Huan

Jensen Huang fundou a NVIDIA em 1993 e atuou desde o início como presidente, diretor executivo e membro do conselho de administração. A NVIDIA inventou a GPU em 1999 e, de suas raízes como empresa de gráficos para PC, passou a se tornar líder mundial em computação via AI. Huang é um destinatário do Dr. Morris Chang Prêmio de liderança exemplar da Global Semiconductor Association em reconhecimento de suas contribuições excepcionais para impulsionar o desenvolvimento, inovação, crescimento e oportunidades de longo prazo da indústria de semicondutores.

Sobre a NVIDIA

A invenção da GPU pela  NVIDIA (NASDAQ: NVDA) em 1999 provocou o crescimento do mercado de jogos para PCs, redefiniu a computação gráfica moderna e revolucionou a computação paralela. Mais recentemente, a aprendizagem profunda via GPU abriu caminho para a AI moderna – a próxima era da computação – com a GPU atuando como o cérebro dos computadores, robôs e carros autônomos que percebem e entendem o mundo. Mais informações em http://www.nvidia.com.br/page/home.html

Acesse também:

Site oficial da NVIDIA no Brasil: www.nvidia.com.br

NVIDIA no Facebook: NVIDIA Brasil

NVIDIA no Twitter: @nvidiabrasil

NVIDIA no Instagram: @nvidiabrasil

Informações para a Imprensa:

Sing Comunicação de Resultados

 

Postado em: Destaque, Releases, Tecnologia