NVIDIA英偉達A100與A800在各種規(guī)模上實現(xiàn)出色的,適用于各種工作負載的強大計算平臺
NVIDIA英偉達A100人工智能服務(wù)器可在各個規(guī)模下為 AI、數(shù)據(jù)分析和計算( HPC) 應(yīng)用提供出色的性能,為性彈性數(shù)據(jù)中心提供強勁助力。作為 NVIDIA 數(shù)據(jù)中心平臺的引擎,與前一代 NVIDIA Volta™ 相比,A100 可使性能提升高達 20 倍。A100 可擴展,也可借助多實例 GPU( MIG) 技術(shù)劃分 為 7 個獨立的 GPU 實例,從而提供統(tǒng)一的平臺,助力彈性數(shù)據(jù)中心根據(jù)不斷變化的工作負載需求動態(tài)進行調(diào)整。
NVIDIA A100 Tensor Core 技術(shù)支持廣泛的數(shù)學(xué)精度,可針對每個工作負載提供單個。新一代 A100 80GB 將 GPU 顯存 加倍,提供 2TB/s 的超快顯存帶寬,可加速處理超大型模型和海量數(shù)據(jù)集。
A100 是完整 NVIDIA 數(shù)據(jù)中心解決方案的一部分,該解決方案由硬件、網(wǎng)絡(luò)、軟件、庫以及 NGC™ 目錄中經(jīng)優(yōu)化的 AI 模型和 應(yīng)用等疊加而成。作為適用于數(shù)據(jù)中心且功能強大的端到端 AI 和 HPC 平臺,A100 可助力研究人員獲得真實的結(jié)果,并能將解決方案大規(guī)模部署到生產(chǎn)環(huán)境中。
NVIDIA英偉達A100與A800人工智能服務(wù)器GPU算力租賃產(chǎn)品規(guī)格
跨工作負載的性能
針對大型模型提供高達 3 倍的 AI 訓(xùn)練速度;
相較于 CPU 提供高達 249 倍的 AI 推理性能;
相較于 A100 40GB 提供高達 1.25 倍的 AI 推理性能;
為 HPC 應(yīng)用提供高達 1.8 倍的性能;
四年來 HPC 性能提升 11 倍;
相較于 A100 40GB,在大數(shù)據(jù)分析基準(zhǔn)測試中速度提升 2 倍;
突破性的創(chuàng)新
NVIDIA AMPERE 架構(gòu)
第三代 TENSOR CORE 技術(shù)
多實例 GPU( MIG) 技術(shù)
高帶寬顯存( HBM2E)
結(jié)構(gòu)化稀疏
文章為作者獨立觀點,不代表淘金地立場。轉(zhuǎn)載此文章須經(jīng)作者同意,并附上出處及文章鏈接。
分享到: