NVIDIA于今日發(fā)布NVIDIA A100 80GB GPU,這一創(chuàng)新將支持NVIDIA HGX AI超級計算平臺。該GPU內(nèi)存比上一代提升一倍,能夠為研究人員和工程師們提供空前的速度和性能,助力實現(xiàn)新一輪AI和科學(xué)技術(shù)突破。
全新A100采用HBM2e技術(shù),可將A100 40GB GPU的高帶寬內(nèi)存增加一倍至80GB,提供每秒超過2TB的內(nèi)存帶寬。這使得數(shù)據(jù)可以快速傳輸?shù)饺蜃羁斓臄?shù)據(jù)中心GPU A100上,使研究人員能夠更快地加速其應(yīng)用,處理最大規(guī)模的模型和數(shù)據(jù)集。
NVIDIA應(yīng)用深度學(xué)習(xí)研究副總裁Bryan Catanzaro表示:“若想獲得HPC和AI的最新研究成果,則需要構(gòu)建最大的模型,而這需要比以往更大的內(nèi)存容量和更高的帶寬。A100 80GB GPU所提供的內(nèi)存是六個月前推出的前代產(chǎn)品的兩倍,突破了每秒2TB的限制,使研究人員可以應(yīng)對全球科學(xué)及大數(shù)據(jù)方面最嚴(yán)峻的挑戰(zhàn)?!?/p>
用于NVIDIA DGXTM A100和NVIDIA DGX StationTM A100系統(tǒng)的NVIDIA A100 80GB GPU也于今日發(fā)布,預(yù)計將于本季度發(fā)貨。
領(lǐng)先的系統(tǒng)提供商源訊、戴爾科技、富士通、技嘉科技、慧與、浪潮、聯(lián)想、云達(dá)科技、超微預(yù)計將于2021年上半年,提供基于HGX A100集成底板的系統(tǒng),該集成底板搭載4-8個A100 80GB GPU。
滿足大流量數(shù)據(jù)工作負(fù)載需求
A100 80GB版本基于A100 40GB的多樣化功能,成為需要大量數(shù)據(jù)存儲空間的各類應(yīng)用的理想選擇。
DLRM等推薦系統(tǒng)模型為AI訓(xùn)練提供了涵蓋數(shù)十億用戶和產(chǎn)品信息的海量表單。A100 80GB可實現(xiàn)高達(dá)3倍加速,使企業(yè)可以重新快速訓(xùn)練這些模型,從而提供更加精確的推薦。
HGX服務(wù)器中搭載的A100 80GB還可訓(xùn)練具有更多參數(shù)的最大模型,如GPT-2。GPT-2是具有超常生成文本能力的自然語言處理模型。這就消除了對數(shù)據(jù)或模型并行架構(gòu)的需求,因為實現(xiàn)并行架構(gòu)需要花費大量時間,而且跨多個節(jié)點運行緩慢。
憑借其多實例GPU(MIG)技術(shù),A100可分割為多達(dá)7個GPU實例,每個實例具有10GB內(nèi)存。該技術(shù)是一種安全的硬件隔離方法,在處理各類較小的工作負(fù)載時,可實現(xiàn)GPU最佳利用率。對于如RNN-T等自動語言識別模型的AI推理,單個A100 80GB MIG實例可處理更大規(guī)模的批量數(shù)據(jù),將生產(chǎn)中的推理吞吐量提高1.25倍。
在TB級零售大數(shù)據(jù)分析基準(zhǔn)上,A100 80GB將其性能提高了2倍,使其成為可對最大規(guī)模數(shù)據(jù)集進(jìn)行快速分析的理想平臺。隨著數(shù)據(jù)的動態(tài)更新,企業(yè)可以實時做出關(guān)鍵決策。
對于科學(xué)應(yīng)用,A100 80GB可為天氣預(yù)報和量子化學(xué)等領(lǐng)域提供巨大的加速。材料模擬軟件Quantum Espresso采用單節(jié)點A100 80GB實現(xiàn)了近2倍的吞吐量提升。
RIKEN計算科學(xué)中心負(fù)責(zé)人Satoshi Matsuoka表示:“快速、充足的內(nèi)存帶寬和容量對實現(xiàn)高性能超級計算應(yīng)用來說至關(guān)重要。具有80GB HBM2e GPU內(nèi)存的NVIDIA A100提供2TB/s的全球最快帶寬,可幫助我們大幅提高應(yīng)用性能?!?/p>
A100 80GB的關(guān)鍵特性
A100 80GB具備NVIDIA Ampere架構(gòu)突破性特性:
·第三代Tensor Core核心:通過全新TF32,將上一代Volta架構(gòu)的AI吞吐量提高多達(dá)20倍。通過FP64,將HPC性能提高多達(dá)2.5倍。通過 INT8,將AI推理性能提高多達(dá)20倍,并且支持BF16數(shù)據(jù)格式。
·更大、更快的HBM2e GPU內(nèi)存:使內(nèi)存容量增加一倍,在業(yè)內(nèi)率先實現(xiàn)2TB/s以上的內(nèi)存帶寬。
·MIG技術(shù):將單個獨立實例的內(nèi)存增加一倍,可最多提供七個MIG,每個實例具備10GB內(nèi)存。
·結(jié)構(gòu)化稀疏:將推理稀疏模型的速度提高2倍。
·第三代NVLink和NVSwitch,相較于上一代互連技術(shù),可使GPU之間的帶寬增加至原來的兩倍,將數(shù)據(jù)密集型工作負(fù)載的GPU數(shù)據(jù)傳輸速度提高至每秒600 gigabytes。
NVIDIA HGX AI 超級計算平臺
A100 80GB GPU是NVIDIA HGX AI超級計算平臺的關(guān)鍵組件。該平臺將NVIDIA GPU、NVIDIA NVLink? 、NVIDIA InfiniBand網(wǎng)絡(luò)以及全面優(yōu)化的NVIDIA AI和HPC軟件堆棧的全部功能整合在一起,以提供最優(yōu)越的應(yīng)用性能。該平臺使研究人員和科學(xué)家能夠?qū)PC、數(shù)據(jù)分析和深度學(xué)習(xí)計算技術(shù)結(jié)合起來,共同推動科學(xué)進(jìn)步。
責(zé)任編輯:tzh
-
NVIDIA
+關(guān)注
關(guān)注
14文章
4855瀏覽量
102711 -
gpu
+關(guān)注
關(guān)注
28文章
4673瀏覽量
128592 -
AI
+關(guān)注
關(guān)注
87文章
29806瀏覽量
268103
發(fā)布評論請先 登錄
相關(guān)推薦
評論