根据NVIDIA的达发对介绍,也拥有更快的加速速度。高于40GB HBM版的威胁1.6TB/s。其他规格基本保持不变,英伟除了将显存增大了一倍,达发对
加速
据HOTHAREDWARE报道,
这一次升级,提升了3倍,装载了4块A100 80GB 版加速卡可以提供2.5 PetaFLOPS的性能。英伟达推出了搭载80GB HBM2e大容量显存版的A100。比如天气预报和量子化学等。包括19.5 TFLOPS的单精度性能和9.7 TFLOPS的双精度性能。最大的提升是以DLRM Recommender为代表的AI深度学习,英伟达深度学习研究副总裁Bryan Catanzaro,提升了2倍。
英伟达提供了一些基准测试的数据,
DGX Station A100将在本季度上市。
升级后的80GB HBM2e版已经出现在NVIDIA新款DGX Station A100里面,它基本上是一个小型数据中心了,频率为3.2Gbps,英伟达将其称为全球最快的数据中心GPU,


"在HPC和AI研究中取得最先进的成果需要建立最大规模的数据模型,并突破了每秒2TB的障碍,使研究人员能够应对世界上最重要的科学和大数据挑战"。这就是显存带宽增加的原因。被称为HBM2e的HBM2改进型,英伟达官方发布了基于Ampere架构的A100已经被认为是高性能计算集群(HPC)的首选GPU,