Hoje a NVIDIA deve revelar sua nova microarquitetura Ampere. A conferência é gravada e será publicada no canal da NVIDIA no Youtube (https://www.youtube.com/user/nvidia) as 10h no horário de Brasília.
Confira tudo o que foi anunciado
- NVIDIA Ampere A100 possui 54 bilhões de transistores, e será maior chip de 7nm do mundo;
- O sistema DGX-A100 agrupa 5 petaflops (5000 teraflops) de desempenho computacional em uma única "placa gráfica" (um único nó) e começa por US$ 199.000 por peça;
- A arquitetura Ampere foi projetado para HPC e GeForce/Quadro;
- NVIDIA A100 está em plena produção e entrega para clientes em todo o mundo;
- A100 também foi desenvolvido para análise de dados, computação científica e gráficos em nuvem;
- GPUs A100 em suas ofertas incluem: Alibaba Cloud, Amazon Web Services (AWS), Atos, Baidu Cloud, Cisco, Dell Technologies, Fujitsu, GIGABYTE, Google Cloud, H3C, Hewlett Packard Enterprise (HPE), Inspur, Lenovo, Microsoft Azure, Oracle, Quanta / QCT, Supermicro e Tencent Cloud;
- Alibaba Cloud, AWS, Baidu Cloud, Google Cloud, Microsoft Azure, Oracle e Tencent Cloud estão planejando oferecer serviços baseados em A100;
- NVIDIA criou o HGX A100 - um componente básico de servidor na forma de "rodapés" integrados em várias configurações de GPU;
- HGX A100 de quatro GPU oferece interconexão total entre GPUs com NVLink, enquanto a configuração de oito GPU oferece largura de banda completa de GPU para GPU através do NVIDIA NVSwitch;
- O HGX A100, com a nova tecnologia MIG, pode ser configurado como 56 pequenas GPUs, cada uma mais rápida que a NVIDIA T4, até um servidor gigante de oito GPUs com 10 petaflops de desempenho de IA.;
- Núcleos tensores de terceira geração com TF32 - os amplamente adotados núcleos tensores da NVIDIA agora são mais flexíveis, rápidos e fáceis de usar;
- GPU de várias instâncias, ou MIG, permitindo que um único A100 seja particionado em até sete GPUs independentes, cada uma com seus próprios recursos;
- Desempenho 6x maior que a arquitetura Volta da NVIDIA, para treinamento, e desempenho 7x maior para inferência;
- NVIDIA lança Jetson Xavier NX Developer Kit com suporte nativo à nuvem;
- O módulo Jetson Xavier NX é a plataforma ideal para acelerar aplicativos de IA, oferecendo um desempenho superior a 10x, em comparação com seu antecessor amplamente adotado, o Jetson TX2;
- A plataforma NVIDIA EGX Edge AI leva a IA em tempo real às indústrias de manufatura, varejo, telecomunicações, saúde e outras indústrias;
- A Tesla A100 terá 6,912 CUDA Cores, 432 Tensor Cores, 826 mm², 19.5 TFLOP em FP32, 40 GB HBM2 de VRAM, 1.6 TB / s de largura de banda, 400 watts de consumo, 108 SMs, NVLink de 600GB/s e PCIe 4.0 64GB/s;
Essa noticia será atualizada.