Acompanhe a conferência da NVIDIA na GTC

Acompanhe a conferência da NVIDIA na GTC

NVIDIA apresentou a arquitetura Ampere oficialmente
#Tecnologia Publicado por jpmksouza, em

Hoje a NVIDIA deve revelar sua nova microarquitetura Ampere. A conferência é gravada e será publicada no canal da NVIDIA no Youtube (https://www.youtube.com/user/nvidia) as 10h no horário de Brasília.

Confira tudo o que foi anunciado

  1. NVIDIA Ampere A100 possui 54 bilhões de transistores, e será maior chip de 7nm do mundo;
  2. O sistema DGX-A100 agrupa 5 petaflops (5000 teraflops) de desempenho computacional em uma única "placa gráfica" (um único nó) e começa por US$ 199.000 por peça;
  3. A arquitetura Ampere foi projetado para HPC e GeForce/Quadro;
  4. NVIDIA A100 está em plena produção e entrega para clientes em todo o mundo;
  5. A100 também foi desenvolvido para análise de dados, computação científica e gráficos em nuvem;
  6. GPUs A100 em suas ofertas incluem: Alibaba Cloud, Amazon Web Services (AWS), Atos, Baidu Cloud, Cisco, Dell Technologies, Fujitsu, GIGABYTE, Google Cloud, H3C, Hewlett Packard Enterprise (HPE), Inspur, Lenovo, Microsoft Azure, Oracle, Quanta / QCT, Supermicro e Tencent Cloud;
  7. Alibaba Cloud, AWS, Baidu Cloud, Google Cloud, Microsoft Azure, Oracle e Tencent Cloud estão planejando oferecer serviços baseados em A100;
  8. NVIDIA criou o HGX A100 - um componente básico de servidor na forma de "rodapés" integrados em várias configurações de GPU;
  9. HGX A100 de quatro GPU oferece interconexão total entre GPUs com NVLink, enquanto a configuração de oito GPU oferece largura de banda completa de GPU para GPU através do NVIDIA NVSwitch;
  10. O HGX A100, com a nova tecnologia MIG, pode ser configurado como 56 pequenas GPUs, cada uma mais rápida que a NVIDIA T4, até um servidor gigante de oito GPUs com 10 petaflops de desempenho de IA.;
  11. Núcleos tensores de terceira geração com TF32 - os amplamente adotados núcleos tensores da NVIDIA agora são mais flexíveis, rápidos e fáceis de usar;
  12. GPU de várias instâncias, ou MIG, permitindo que um único A100 seja particionado em até sete GPUs independentes, cada uma com seus próprios recursos;
  13. Desempenho 6x maior que a arquitetura Volta da NVIDIA, para treinamento, e desempenho 7x maior para inferência;
  14. NVIDIA lança Jetson Xavier NX Developer Kit com suporte nativo à nuvem;
  15. O módulo Jetson Xavier NX é a plataforma ideal para acelerar aplicativos de IA, oferecendo um desempenho superior a 10x, em comparação com seu antecessor amplamente adotado, o Jetson TX2;
  16. A plataforma NVIDIA EGX Edge AI leva a IA em tempo real às indústrias de manufatura, varejo, telecomunicações, saúde e outras indústrias;
  17. A Tesla A100 terá 6,912 CUDA Cores, 432 Tensor Cores, 826 mm², 19.5 TFLOP em FP32, 40 GB HBM2 de VRAM, 1.6 TB / s de largura de banda, 400 watts de consumo, 108 SMs, NVLink de 600GB/s e PCIe 4.0 64GB/s;

Slide https://cdn.wccftech.com/wp-content/uploads/2020/05/NVIDIA-Ampere-GA100-GPU_Tesla-A100_DGX-A100-HPC-System_1.jpg;;;https://cdn.wccftech.com/wp-content/uploads/2020/05/NVIDIA-Ampere-GA100-GPU_Tesla-A100-HPC-Card_1-1030x876.jpg;;;https://www.techpowerup.com/img/I3MW8Lm2ewSW5Jyl.jpg;;;https://www.techpowerup.com/img/fPQvVXsdL5gjo1jG.jpg;;;https://www.techpowerup.com/img/Kr0ARs3BHdTJRDh3.jpg;;;https://www.techpowerup.com/img/VLsdkOj4n2TiUrRp.jpg;;;https://www.techpowerup.com/img/nR6YHLyS0UyEGDvh.jpg

Essa noticia será atualizada.

Fonte 1: Techpowerup
Fonte 2: Techpowerup
Fonte 3: Techpowerup
Fonte 4: Techpowerup
jpmksouza
jpmksouza #jpmksouza2017
Usuário do Site, City 17
Publicações em Destaque