0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Nvidia 正在利用迄今為止最強大的芯片 H200 推動人工智能革命

捷易物聯(lián) ? 2024-01-17 08:25 ? 次閱讀

Nvidia 表示,H200 Tensor Core GPU 具有更大的內(nèi)存容量和帶寬,可加快生成 AI 和 HPC 工作負載的速度。

Nvidia H200 是首款提供 HBM3e 的 GPU,HBM3e 是更快、更大的內(nèi)存,可加速生成式 AI。

H200 芯片定于 2024 年第二季度發(fā)布,Nvidia 表示將與“全球系統(tǒng)制造商和云服務(wù)提供商”合作以實現(xiàn)廣泛可用性。

JAEALOT

Nvidia

OpenAI推出ChatGPT已經(jīng)一段時間了 ,全球?qū)I芯片的需求比以往任何時候都更加難以滿足。如今,大多數(shù)大型科技公司都將注意力集中在生成式人工智能上。對于制造數(shù)量最多、性能最高的圖形處理單元 (GPU) 的公司 Nvidia 公司來說,現(xiàn)在的情況從未如此好過。在發(fā)布了數(shù)十款芯片以滿足看似呈指數(shù)級增長的人工智能市場之后,這家圖形芯片巨頭展示了迄今為止最強大的 GPU——H200。

NVIDIA H200 Tensor Core GPU 誕生之際,Nvidia 正在努力捍衛(wèi)其 在 AI 計算領(lǐng)域的主導(dǎo)地位 ,面對 英特爾AMD以及眾多芯片初創(chuàng)公司和 Amazon Web Services 等試圖搶占市場份額的云服務(wù)提供商。在生成人工智能工作負載驅(qū)動的芯片需求激增的情況下,市場份額不斷增加。

為了保持在人工智能和高性能計算 (HPC) 硬件領(lǐng)域的領(lǐng)先地位,英偉達上月初公布了加快新 GPU 架構(gòu)開發(fā)的計劃。根據(jù)為投資者發(fā)布的路線圖 以及 SemiAnalysis的進一步解釋,這個想法是要恢復(fù)到一年一次的產(chǎn)品推出節(jié)奏 。SemiAnalysis 的報告中寫道:“Nvidia 對 AI GPU 進行年度更新的舉動非常重要,并且會產(chǎn)生許多影響?!?/p>

這一切的開始就是 Nvidia 推出的 H200,它利用 Hopper 架構(gòu)來加速人工智能應(yīng)用程序。它是去年發(fā)布的H100 GPU的后續(xù)產(chǎn)品 ,也是此前 Nvidia 最強大的 AI GPU 芯片。簡而言之,H200 現(xiàn)在是 Nvidia 產(chǎn)品組合中最強大的 AI 芯片。

Nvidia 超大規(guī)模和 HPC 副總裁 Ian Buck 認為,“借助業(yè)界領(lǐng)先的端到端 AI 超級計算平臺 Nvidia H200,可以更快地解決世界上一些最重要的挑戰(zhàn)?!?一般來說,GPU 在人工智能應(yīng)用中表現(xiàn)出色,因為它們能夠執(zhí)行大量并行矩陣乘法,這是神經(jīng)網(wǎng)絡(luò)運行的關(guān)鍵操作。

它們在構(gòu)建人工智能模型的訓(xùn)練階段和隨后的“推理”階段都發(fā)揮著至關(guān)重要的作用,在“推理”階段,用戶將數(shù)據(jù)輸入到人工智能模型中,并提供相應(yīng)的結(jié)果。Buck 指出:“要通過生成式 AI 和 HPC 應(yīng)用程序創(chuàng)建智能,必須使用大容量、快速的 GPU 內(nèi)存高速有效地處理大量數(shù)據(jù)?!?/p>

因此,引入 H200 將帶來進一步的性能飛躍,包括與 H100 相比,Llama 2(一個 700 億參數(shù)的 LLM)的推理速度幾乎翻倍。據(jù) Nvidia 稱,未來的軟件更新預(yù)計會帶來 H200 的額外性能領(lǐng)先優(yōu)勢和改進。

e89b36c2-b4ce-11ee-aa22-92fbcf53809c.png

e8a9464a-b4ce-11ee-aa22-92fbcf53809c.png

雖然 H200 看起來與 H100 基本相似,但其內(nèi)存的修改有明顯的增強。新的 GPU 引入了一種創(chuàng)新且更快的內(nèi)存規(guī)范,稱為 HBM3e。這將 GPU 的內(nèi)存帶寬提升至每秒 4.8 TB,比 H100 的每秒 3.35 TB 明顯增加。它將總內(nèi)存容量從前代產(chǎn)品的 80GB 擴展至 141GB。

“Nvidia H200 是首款提供 HBM3e 的 GPU,HBM3e 速度更快、內(nèi)存更大,可加速生成式 AI 和大型語言模型 (LLM),同時推進 HPC 工作負載的科學(xué)計算。憑借 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 內(nèi)存,與前身 NVIDIA A100 相比,容量幾乎翻倍,帶寬增加 2.4 倍?!痹撔酒揞^ 表示。

結(jié)合實際情況來看,OpenAI 經(jīng)常提到面臨 GPU 資源短缺,導(dǎo)致 ChatGPT 性能下降的問題。為了維持任何水平的服務(wù),該公司采取速率限制。理論上,加入H200可以緩解當(dāng)前運行ChatGPT的AI語言模型的資源限制,使它們能夠有效地迎合更廣泛的客戶群。

Nvidia 還表示,它將提供多種外形規(guī)格的 H200。其中包括四路和八路配置的 Nvidia HGX H200 服務(wù)器主板,與 HGX H100 系統(tǒng)的硬件和軟件兼容。它還將在 Nvidia GH200 Grace Hopper Superchip 中提供,它將 CPU 和 GPU 組合到一個封裝中。

e8b86864-b4ce-11ee-aa22-92fbcf53809c.png

“通過這些選項,H200 可以部署在各種類型的數(shù)據(jù)中心中,包括本地、云、混合云和邊緣。NVIDIA 的 全球合作伙伴服務(wù)器制造商生態(tài)系統(tǒng) (包括華擎 Rack、華碩、戴爾科技、Eviden、技嘉、惠普企業(yè)、英格拉科技、聯(lián)想、QCT、Supermicro、緯創(chuàng)資通和 Wiwynn)可以使用 H200 更新其現(xiàn)有系統(tǒng)?!?。

據(jù)美國芯片巨頭亞馬遜網(wǎng)絡(luò)服務(wù)(AWS)稱,除了CoreWeave、Lambda、和烏爾特爾。目前,英偉達在AI GPU市場處于領(lǐng)先地位。

然而,AWS、谷歌、微軟等主要參與者以及 AMD 等傳統(tǒng) AI 和 HPC 實體正在積極準備 其下一代處理器用于訓(xùn)練和推理。為了應(yīng)對這種競爭格局,Nvidia 加快了基于 B100 和 X100 的產(chǎn)品進度。

e8cf709a-b4ce-11ee-aa22-92fbcf53809c.png

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關(guān)注

    關(guān)注

    450

    文章

    49636

    瀏覽量

    417158
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4793

    瀏覽量

    102429
  • 人工智能
    +關(guān)注

    關(guān)注

    1787

    文章

    46061

    瀏覽量

    235008
收藏 人收藏

    評論

    相關(guān)推薦

    OpenAI聯(lián)手Nvidia發(fā)布首臺Nvidia DGX H200

    OpenAI總裁兼聯(lián)合創(chuàng)始人Greg Brockman分享了他與山姆?阿爾特曼(Sam Altman)、黃仁勛以及自己的合影,他們的眼前正是這臺首次亮相的DGX H200。
    的頭像 發(fā)表于 04-25 13:50 ?313次閱讀

    英偉達H200性能顯著提升,年內(nèi)將推出B200新一代AI半導(dǎo)體

    同一天,NVIDIA發(fā)布了H200的性能評估報告,表明在與美國Meta公司的大型語言模型——LLM“Llama 2”的對比中,H200使AI導(dǎo)出答案的處理速度最高提升了45%。
    的頭像 發(fā)表于 04-01 09:36 ?1153次閱讀

    英偉達H200上市時間

    英偉達H200于2023年11月13日正式發(fā)布。然而,由于HBM3e芯片供應(yīng)問題,其實際開售時間有所延遲。英偉達表示,H200產(chǎn)品預(yù)計將在2024年第二季度正式開售。因此,雖然H200
    的頭像 發(fā)表于 03-07 16:46 ?1808次閱讀

    英偉達H200帶寬狂飆

    英偉達H200帶寬的顯著提升主要得益于其強大的硬件配置和先進的技術(shù)創(chuàng)新。H200配備了高達141GB的HBM3e顯存,與前代產(chǎn)品H100相比,內(nèi)存容量提升了76%。更重要的是,
    的頭像 發(fā)表于 03-07 16:44 ?751次閱讀

    英偉達H200算力怎么樣

    英偉達H200的算力非常強大。作為新一代AI芯片,H200在性能上有了顯著的提升,能夠處理復(fù)雜的AI任務(wù)和大數(shù)據(jù)分析。然而,具體的算力數(shù)值可能因芯片
    的頭像 發(fā)表于 03-07 16:15 ?1628次閱讀

    英偉達H200能作為普通顯卡使用嗎

    英偉達H200不能作為普通顯卡使用。H200是一款專為AI計算設(shè)計的芯片,它并不具備普通顯卡的圖形渲染能力。H200的主要用途是處理生成式人工智能
    的頭像 發(fā)表于 03-07 16:13 ?1087次閱讀

    英偉達H200顯卡價格

    英偉達H200顯卡的具體價格尚未公布。根據(jù)上一代H100顯卡的價格范圍,預(yù)計H200的單片價格將超過40000美元。由于新芯片通常定價較高,因此可以推斷
    的頭像 發(fā)表于 03-07 16:09 ?2930次閱讀

    英偉達H200參數(shù)說明

    英偉達H200是一款新一代AI芯片,于2023年11月14日正式發(fā)布,主要被設(shè)計用來處理生成式人工智能負載的海量數(shù)據(jù)。
    的頭像 發(fā)表于 03-07 15:48 ?1296次閱讀

    Stability AI推出迄今為止更小、更高效的1.6B語言模型

    Stability AI 宣布推出迄今為止最強大的小語言模型之一 Stable LM 2 1.6B。
    的頭像 發(fā)表于 01-23 10:11 ?629次閱讀
    Stability AI推出<b class='flag-5'>迄今為止</b>更小、更高效的1.6B語言模型

    英偉達最強AI芯片H200性能如何?

    英偉達進一步指出,內(nèi)存帶寬對于 HPC 應(yīng)用程序至關(guān)重要,因為它可以實現(xiàn)更快的數(shù)據(jù)傳輸,減少復(fù)雜的處理瓶頸。對于模擬、科學(xué)研究和人工智能等內(nèi)存密集型 HPC 應(yīng)用,H200 更高的內(nèi)存帶寬可確保高效地訪問和操作數(shù)據(jù),與 CPU 相比,獲得結(jié)果的時間最多可加快 110 倍。
    發(fā)表于 11-22 16:40 ?747次閱讀
    英偉達<b class='flag-5'>最強</b>AI<b class='flag-5'>芯片</b><b class='flag-5'>H200</b>性能如何?

    英偉達重磅發(fā)布H200,容量翻倍,帶寬狂飆

    HGX H200NVIDIA NVLink 和 NVSwitch 高速互連提供支持,可為各種應(yīng)用工作負載提供最高性能,包括針對超過 1750 億個參數(shù)的最大模型的 LLM 訓(xùn)練和推理。英偉達
    的頭像 發(fā)表于 11-15 16:09 ?842次閱讀
    英偉達重磅發(fā)布<b class='flag-5'>H200</b>,容量翻倍,帶寬狂飆

    英偉達推出用于人工智能工作的頂級芯片HGX H200

    近日,英偉達推出了一款用于人工智能工作的頂級芯片HGX H200。新的GPU升級了需求巨大的H100,內(nèi)存帶寬增加了1.4倍,內(nèi)存容量增加了1.8倍,提高了其處理密集生成
    的頭像 發(fā)表于 11-15 14:34 ?1289次閱讀

    英偉達新一代人工智能(AI)芯片HGX H200

    基于英偉達的“Hopper”架構(gòu)的H200也是該公司第一款使用HBM3e內(nèi)存的芯片,這種內(nèi)存速度更快,容量更大,因此更適合大語言模型。英偉達稱:借助HBM3e,H200以每秒4.8TB的速度提供141GB的內(nèi)存,與A100相比,
    發(fā)表于 11-15 11:17 ?659次閱讀

    英偉達推出新款A(yù)I芯片H200 性能飆升90%但是估計依然被出口管制

    生成式AI火爆全球之后,英偉達的AI芯片一張難求,就在英偉達重量級選手H100 AI芯片目前依然是一貨難求的情況下,英偉達推出新款A(yù)I芯片H200
    的頭像 發(fā)表于 11-14 16:45 ?1339次閱讀
    英偉達推出新款A(yù)I<b class='flag-5'>芯片</b><b class='flag-5'>H200</b> 性能飆升90%但是估計依然被出口管制

    世界最強AI芯H200發(fā)布,英偉達:性能提升90%

    在備受關(guān)注的人工智能領(lǐng)域,英偉達表示,h200將進一步提高性能。llama 2(700億個llm)的推理速度是h100的兩倍。未來的軟件更新有望為h200帶來更多的性能和改進。
    的頭像 發(fā)表于 11-14 10:49 ?978次閱讀