全球領(lǐng)先的計(jì)算機(jī)制造商戴爾科技、慧與、聯(lián)想、超微以及云服務(wù)提供商 AWS、谷歌云、Microsoft Azure、Oracle Cloud Infrastructure 正在打造基于 H100 的產(chǎn)品,并將于下月開始供貨
NVIDIA 于今日宣布 NVIDIA H100 Tensor Core GPU 全面投產(chǎn),NVIDIA 全球技術(shù)合作伙伴計(jì)劃于 10 月推出首批基于開創(chuàng)性 NVIDIA Hopper 架構(gòu)的產(chǎn)品和服務(wù)。
H100 于 2022 年 4 月發(fā)布,由 800 億個(gè)晶體管組成,并采用了眾多開創(chuàng)性的技術(shù),包括強(qiáng)大的全新 Transformer 引擎和 NVIDIA NVLink 互連技術(shù),以加速最大規(guī)模的 AI 模型,如高級(jí)推薦系統(tǒng)和大型語言模型,并推動(dòng)對(duì)話式 AI 和藥物發(fā)現(xiàn)等領(lǐng)域的創(chuàng)新。
NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛表示:“Hopper 是 AI 工廠的全新引擎。它能夠處理和挖掘海量數(shù)據(jù),訓(xùn)練具有數(shù)萬億參數(shù)的模型,這些模型將推動(dòng)基于語言的 AI、機(jī)器人、醫(yī)療和生命科學(xué)領(lǐng)域的進(jìn)步。Hopper 的 Transformer 引擎將性能提升了一個(gè)數(shù)量級(jí),使大規(guī)模 AI 和 HPC 能夠?yàn)槠髽I(yè)和研究人員所用?!?/p>
除了 Hopper 的架構(gòu)和 Transformer 引擎之外,第二代多實(shí)例 GPU、機(jī)密計(jì)算、第四代 NVIDIA NVLink 和 DPX 指令等若干關(guān)鍵性創(chuàng)新也讓 H100 GPU 如虎添翼,實(shí)現(xiàn)了 NVIDIA 加速計(jì)算數(shù)據(jù)中心平臺(tái)的又一次飛躍。
用于主流服務(wù)器的 H100 現(xiàn)包含為期五年的 NVIDIA AI Enterprise 軟件套件許可。這將優(yōu)化 AI 工作流的開發(fā)和部署,確保用戶能夠獲得構(gòu)建 AI 聊天機(jī)器人、推薦引擎、視覺 AI 等所需的 AI 框架和工具。
Hopper 的全球推廣
H100 使企業(yè)能夠削減 AI 的部署成本,相較于上一代,在提供相同 AI 性能的情況下,可將能效提高 3.5 倍,總體擁有成本減少至 1/3,所使用的服務(wù)器節(jié)點(diǎn)數(shù)也減少至 1/5。
對(duì)于有意立即嘗試這項(xiàng)新技術(shù)的客戶,NVIDIA 已宣布戴爾 PowerEdge 服務(wù)器上的 H100 現(xiàn)可在 NVIDIA LaunchPad 上使用。NVIDIA LaunchPad 為企業(yè)提供免費(fèi)的動(dòng)手實(shí)操實(shí)驗(yàn)室,讓企業(yè)能夠接觸到最新的硬件和 NVIDIA AI 軟件。
NVIDIA DGX H100 系統(tǒng)現(xiàn)在也已開始接受客戶預(yù)定。該系統(tǒng)包含 8 個(gè) H100 GPU,F(xiàn)P8 精度的峰值性能達(dá)到 32 PFlops。每個(gè) DGX 系統(tǒng)都包含 NVIDIA Base Command 和 NVIDIA AI Enterprise 軟件,可實(shí)現(xiàn)從單一節(jié)點(diǎn)到 NVIDIA DGX SuperPOD 的集群部署,為大型語言模型和其他大規(guī)模工作負(fù)載的高級(jí) AI 開發(fā)工作提供支持。
全球領(lǐng)先的計(jì)算機(jī)制造商所提供的搭載 H100 的系統(tǒng)預(yù)計(jì)將在未來幾周內(nèi)發(fā)貨,到今年年底將有超過 50 款服務(wù)器型號(hào)面市,2023 年上半年還將有數(shù)十款型號(hào)面市。已在構(gòu)建系統(tǒng)的合作伙伴包括源訊(Atos)、思科、戴爾科技、富士通、技嘉科技、慧與、聯(lián)想和超微。
此外,數(shù)家全球領(lǐng)先的高等教育和研究機(jī)構(gòu)的新一代超級(jí)計(jì)算機(jī)也將采用 H100。其中包括巴塞羅那超級(jí)計(jì)算中心、洛斯阿拉莫斯國(guó)家實(shí)驗(yàn)室、瑞士國(guó)家超級(jí)計(jì)算中心(CSCS)、德州高級(jí)計(jì)算中心和筑波大學(xué)。
H100 走向云端
AWS、谷歌云、Microsoft Azure、Oracle Cloud Infrastructure 將從明年開始率先在云端部署基于 H100 的實(shí)例。
Microsoft Azure AI 基礎(chǔ)設(shè)施總經(jīng)理 Nidhi Chappell 表示:“我們期待著在 Microsoft Azure的最新 H100 GPU 上實(shí)現(xiàn)下一代 AI 模型。借助 Hopper 架構(gòu)的進(jìn)步,加之我們?cè)?Azure AI 超級(jí)計(jì)算方面的投資,我們將能夠助力加速全球 AI 的發(fā)展?!?/p>
Oracle Cloud Infrastructure 產(chǎn)品管理副總裁 Karan Batta 表示:“我們通過為客戶提供 NVIDIA 最新的 H100 GPU,幫助他們加速最為復(fù)雜的機(jī)器學(xué)習(xí)和 HPC 工作負(fù)載。另外,憑借 NVIDIA 的新一代 H100 GPU,我們能夠?yàn)閮?nèi)部要求嚴(yán)苛的工作負(fù)載提供支持,并助力我們共同的客戶在醫(yī)療、自動(dòng)駕駛汽車、機(jī)器人和物聯(lián)網(wǎng)領(lǐng)域取得突破。”
NVIDIA 的軟件支持
H100 先進(jìn)的 Transformer 引擎技術(shù)可助力企業(yè)快速開發(fā)精度更高的大型語言模型。隨著這些模型的規(guī)模不斷擴(kuò)大,其復(fù)雜性也在不斷提升,有些模型的訓(xùn)練時(shí)間甚至長(zhǎng)達(dá)數(shù)月。
為解決這一問題,一些全球領(lǐng)先的大型語言模型和深度學(xué)習(xí)框架正在 H100 上進(jìn)行優(yōu)化,包括 NVIDIA NeMo Megatron、Microsoft DeepSpeed、Google JAX、PyTorch、TensorFlow 和 XLA。這些框架與 Hopper 架構(gòu)相結(jié)合,能夠顯著提升 AI 性能,將大型語言模型的訓(xùn)練時(shí)間縮短到幾天乃至幾小時(shí)。
-
NVIDIA
+關(guān)注
關(guān)注
14文章
4855瀏覽量
102711 -
AI
+關(guān)注
關(guān)注
87文章
29806瀏覽量
268103 -
模型
+關(guān)注
關(guān)注
1文章
3112瀏覽量
48658 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5463瀏覽量
120890
原文標(biāo)題:GTC22 | NVIDIA Hopper 全面投產(chǎn)
文章出處:【微信號(hào):NVIDIA_China,微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論