Nesta quarta-feira, 10/05, diante de uma audiência de mais
de sete mil participantes da GPU Technology Conference (GTC) em San
Jose, Califórnia, o CEO da Nvidia, Jensen Huang, subiu ao palco para
anunciar sua nova joia da coroa: a GPU Tesla V100, equipada com o Volta,
o processador gráfico (GPU) mais poderoso do mundo, com 21 bilhões de
transistores e 5.120 núcleos CUDA e poder de processamento de deep
learning equivalente a 100 CPUs.
O processador Volta é a sétima geração de GPUs da Nvidia.
Seu desenvolvimento consumiu três anos de trabalho dos engenheiros da
companhia e US$ 3 bilhões em investimentos. Ele está, segundo Huang,
"nos limites da fotolitografia", já que sua arquitetura utliza um
processo de fabricação de 12-nanômetros que permite concentrar os 21
bilhões de transistores em uma área de 815 mm quadrados.
A Tesla V100 é o que os norte-americanos chamam de
"badass". Ela representa um avanço monstruoso em tamanho e recursos
sobre a GPU mais poderosa da companhia até agora, a Tesla P100, com
arquitetura Pascal, que tem tem 15 bilhões de transistores e 3.840
nucleos concentrados em uma área de 600 mm quadrados. Em desempenho, a
nova Tesla V100 representa 5 vezes mais performance em teraflops que
a Pascal™ e 15 vezes mais que a arquitetura Maxwell™, lançada pela
Nvidia há dois anos.
A novidade da Tesla V100 é incorporar 640 Tensor Cores,
que são núcleos computacionais especializados em processar operações
matemáticas típicas de redes de deep learning. O Volta utiliza uma
matriz 4 x 4 que faz o processamento paralelo do processamento paralelo.
Na prática, os Tensor Cores entregam 120 teraflops de performance para
acelerar o aprendizado de máquina. É 12 vezes mais que o processador
anterior, Pascal, e equivalente a 100 CPUs convencionais.
Ecossistema de IA
Com o lançamento, a Nvidia fortalece sua presença no
mercado de processamento de altíssimo desempenho dedicado a aplicações
de inteligência artifificial (IA) e aprendizado de máquina usando deep
learning. E dá sua resposta a um dos dilemas da computação de alta
performance (HPC): como ampliar o poder de processamento computacional
na velocidade e no exponencial necessário para suportar a demanda das
aplicações de IA.
"Precisamos mostrar que há vida além da Lei de Moore",
disse Huang, referindo-se à lei original formulada em 1965 por Gordon
Moore, fundador da Intel, que o número de transistores em um circuito
integrado dobraria a cada ano. Em 1975 essa lei foi revisada pela Intel,
passado a ditar que a densidade do processador (CPU) dobraria a cada
dois anos. Mais recentemente a Lei de Moore foi considerada praticamente
morta e hoje, quando se trata de CPUs, o aumento da densidade é de
apenas 1.1 vez por ano, impactando portanto a expectativa de mais
performance em menos tempo.
As GPUs, no entanto, continuam a aumentar a densidade a
uma taxa de 1.5 vezes por ano, combinando inovações em software e no
silício para superar a Lei de Moore. “Alguns descrevem isso como a Lei
de Moore ao quadrado. Essa é a razão da nossa existência, reconhecer que
temos de achar um caminho para a vida depois da Lei de Moore", diz
Huang.
O CEO da Nvidia trouxe todo seu ecossistema de parceiros
corporativos para a GTC 2017 e além do anúncio da Tesla V100, apresentou
novidades para o mercado de data centers, inteligência artificial
corporativa e pesquisa.
Uma delas foi o anúncio da nova versão do supercomputador
DGX já com oito placas Tesla V100 instaladas. A nova máquina, chamada
DGX-1, tem 3 vezes mais performance que o modelo anterior, entregando
poder de processamento equivalente a 800 CPUs.
Além da DGX-1, que vai custar US$149.000, Huang anunciou a
workstation DGX Station, que vem com quatro GPUs V100 que garantem a
entrega de 480 teraflops of poder computacional Tensor em uma embalagem
que não fica devendo nada a um desktop convencional. O foco, segundo a
Nvidia, é capacitar pesquisadores e startups de IA a acelerar o
desenvolvimento de aplicações sem ter de precisar configurar
equipamentos, já que ambas vem com todo o conjunto de software da
Nvidia. A DGX Station vai custar US$ 69,000.
As GPUs da Nvidia estão hoje instaladas em praticamente
todos os grandes players de cloud pública, incluindo Alibaba, AWS,
Baidu, Google, IBM, Microsoft Azure e Tencent. Durante a apresentação de
Huang, subiram ao palco Jason Zander, vice-presidente corporativo da
Microsoft Azure; e Matt Wood, diretor geral de deep learning e IA da
Amazon Web Services, ambos preparados para incorporar a novidade em seus
data centers.
“Estamos em nossa segunda geração de GPUs na nuvem e
acabamos de anunciar a P40s e P100s, mas realmente amamos a Volta. Meu
trabalho é garantir que as pessoas usem a Azure Cloud e as pessoas
querem usar as novidades sem demora”, disse Zander
Matt Wood, da AWS, celebrou o fato de que a empresa é um
dos parceiros no lançamento.
"Não podia estar mais contente. Vimos
melhorias fantásticas de performance, tanto para treinamento e
inferência e estamos entusiasmados em ser parceiros no lançamento".
Via: idgnow