Tecnologias Emergentes > Deep Learning, I.A.

Nvidia lança GPU Tesla V100, com processador Volta de US$ 3 bilhões

Foco da companhia é levar para os data centers o poder de processamento para as novas aplicações de inteligência artificial com deep learning

11 de Maio de 2017 - 10h08

Nesta quarta-feira, 10/05, diante de uma audiência de mais de sete mil participantes da GPU Technology Conference (GTC) em San Jose, Califórnia, o CEO da Nvidia, Jensen Huang, subiu ao palco para anunciar sua nova joia da coroa: a GPU Tesla V100, equipada com o Volta, o processador gráfico (GPU) mais poderoso do mundo, com 21 bilhões de transistores e 5.120 núcleos CUDA e poder de processamento de deep learning equivalente a 100 CPUs.

O processador Volta é a sétima geração de GPUs da Nvidia. Seu desenvolvimento consumiu três anos de trabalho dos engenheiros da companhia e US$ 3 bilhões em investimentos. Ele está, segundo Huang, "nos limites da fotolitografia", já que sua arquitetura utliza um processo de fabricação de 12-nanômetros que permite concentrar os 21 bilhões de transistores em uma área de 815 mm quadrados.

A Tesla V100 é o que os norte-americanos chamam de "badass". Ela representa um avanço monstruoso em tamanho e recursos sobre a GPU mais poderosa da companhia até agora, a Tesla P100, com arquitetura Pascal, que tem tem 15 bilhões de transistores e 3.840 nucleos concentrados em uma área de 600 mm quadrados. Em desempenho, a nova Tesla V100 representa 5 vezes mais performance em teraflops que a Pascal™ e 15 vezes mais que a arquitetura Maxwell™, lançada pela Nvidia há dois anos.

A novidade da Tesla V100 é incorporar 640 Tensor Cores, que são núcleos computacionais especializados em processar operações matemáticas típicas de redes de deep learning. O Volta utiliza uma matriz 4 x 4 que faz o processamento paralelo do processamento paralelo. Na prática, os Tensor Cores entregam 120 teraflops de performance para acelerar o aprendizado de máquina. É 12 vezes mais que o processador anterior, Pascal, e equivalente a 100 CPUs convencionais.

Ecossistema de IA

Com o lançamento, a Nvidia fortalece sua presença no mercado de processamento de altíssimo desempenho dedicado a aplicações de inteligência artifificial (IA) e aprendizado de máquina usando deep learning. E dá sua resposta a um dos dilemas da computação de alta performance (HPC): como ampliar o poder de processamento computacional na velocidade e no exponencial necessário para suportar a demanda das aplicações de IA.

"Precisamos mostrar que há vida além da Lei de Moore", disse Huang, referindo-se à lei original formulada em 1965 por Gordon Moore, fundador da Intel,  que o número de transistores em um circuito integrado dobraria a cada ano. Em 1975 essa lei foi revisada pela Intel, passado a ditar que a densidade do processador (CPU) dobraria a cada dois anos. Mais recentemente a Lei de Moore foi considerada praticamente morta e hoje, quando se trata de CPUs, o aumento da densidade é de apenas 1.1 vez por ano, impactando portanto a expectativa de mais performance em menos tempo.

As GPUs, no entanto, continuam a aumentar a densidade a uma taxa de 1.5 vezes por ano, combinando inovações em software e no silício para superar a Lei de Moore. “Alguns descrevem isso como a Lei de Moore ao quadrado. Essa é a razão da nossa existência, reconhecer que temos de achar um caminho para a vida depois da Lei de Moore", diz Huang.

O CEO da Nvidia trouxe todo seu ecossistema de parceiros corporativos para a GTC 2017 e além do anúncio da Tesla V100, apresentou novidades para o mercado de data centers, inteligência artificial corporativa e pesquisa.

Uma delas foi o anúncio da nova versão do supercomputador DGX já com oito placas Tesla V100 instaladas. A nova máquina, chamada DGX-1, tem 3 vezes mais performance que o modelo anterior, entregando poder de processamento equivalente a 800 CPUs.

Além da DGX-1, que vai custar US$149.000, Huang anunciou a workstation DGX Station, que vem com quatro GPUs V100 que garantem a entrega de 480 teraflops of poder computacional Tensor em uma embalagem que não fica devendo nada a um desktop convencional. O foco, segundo a Nvidia, é capacitar pesquisadores e startups de IA a acelerar o desenvolvimento de aplicações sem ter de precisar configurar equipamentos, já que ambas vem com todo o conjunto de software da Nvidia. A DGX Station vai custar US$ 69,000.

As GPUs da Nvidia estão hoje instaladas em praticamente todos os grandes players de cloud pública, incluindo Alibaba, AWS, Baidu, Google, IBM, Microsoft Azure e Tencent. Durante a apresentação de Huang, subiram ao palco Jason Zander, vice-presidente corporativo da Microsoft Azure; e Matt Wood, diretor geral de deep learning e IA da Amazon Web Services, ambos preparados para incorporar a novidade em seus data centers.

“Estamos em nossa segunda geração de GPUs na nuvem e acabamos de anunciar a P40s e P100s, mas realmente amamos a Volta. Meu trabalho é garantir que as pessoas usem a Azure Cloud e as pessoas querem usar as novidades sem demora”, disse Zander

Matt Wood, da AWS, celebrou o fato de que a empresa é um dos parceiros no lançamento. "Não podia estar mais contente. Vimos melhorias fantásticas de performance, tanto para treinamento e inferência e estamos entusiasmados em ser parceiros no lançamento".

* Silvia Bassi viajou a convite da Nvidia para participar da GTC 2017