0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

超級芯片GH200發(fā)布,AI算力是H100的兩倍

智能計算芯世界 ? 來源:智能計算芯世界 ? 2023-08-10 09:16 ? 次閱讀

英偉達在計算機圖形學頂會 SIGGRAPH 2023 上發(fā)布了專為生成式 AI 打造的下一代 GH200 Grace Hopper 平臺,并推出了 OVX 服務器、AI Workbench 等一系列重磅更新。

五年前,也是在 SIGGRAPH 大會的演講中,英偉達宣布將 AI 和實時光線追蹤引入 GPU ,可以說,當時的這個決定重塑了計算圖形學。

「我們意識到光柵化已經達到了極限,」黃仁勛表示:「這要求我們重塑硬件、軟件和算法。在我們用 AI 重塑 CG 的同時,也在為 AI 重塑 GPU。」

預言應驗了:幾年來,計算系統(tǒng)變得越來越強大,例如 NVIDIA HGX H100,它利用 8 個 GPU 和總共 1 萬億個晶體管,與基于 CPU 的系統(tǒng)相比,提供了顯著的加速。

「這就是世界數(shù)據(jù)中心迅速轉向加速計算的原因,」在今年的 SIGGRAPH 大會,黃仁勛重申:「The more you buy, the more you save.」

如今,訓練越來越大的生成式 AI 模型所需的計算未必由具有一定 GPU 能力的傳統(tǒng)數(shù)據(jù)中心來完成,而是要依靠像 H100 這樣從一開始就為大規(guī)模運算而設計的系統(tǒng)??梢哉f,AI 的發(fā)展在某種程度上只受限于這些計算資源的可用性。

但黃仁勛斷言,這僅僅是個開始。新模型不僅需要訓練時的計算能力,還需要實現(xiàn)由數(shù)百萬甚至數(shù)十億用戶實時運行的計算能力。

「未來,LLM 將出現(xiàn)在幾乎所有事物的前端:人類就是新的編程語言。從視覺效果到快速數(shù)字化的制造市場、工廠設計和重工業(yè),一切都將采用自然語言界面?!裹S仁勛表示。

在這場一個多小時的演講中,黃仁勛帶來了一系列新發(fā)布,全部面向「生成式 AI」。

更強的 GH200 Grace Hopper 超級芯片平臺

英偉達的 Grace Hopper 超級芯片 NVIDIA GH200 結合了 72 核 Grace CPU 和 Hopper GPU,并已在 5 月全面投入生產。

現(xiàn)在,黃任勛又宣布 Grace Hopper 超級芯片將配備 HBM3e 高帶寬內存(HBM3e 比當前的 HBM3 快 50%),下一代 GH200 Grace Hopper 平臺將大幅提升生成式 AI 的計算速度。

全新的 GH200 內存容量將增加至原有的 3.5 倍,帶寬增加至 3 倍,包含一臺具有 144 個 Arm Neoverse 核心、282GB HBM3e 內存的服務器,提供 8 petaflops 的 AI 算力。

為了提升大模型的實際應用效率,生成式 AI 模型的工作負載通常涵蓋大型語言模型、推薦系統(tǒng)和向量數(shù)據(jù)庫。GH200 平臺旨在全面處理這些工作負載,并提供多種配置。

英偉達表示,這款名為 GH200 的超級芯片將于 2024 年第二季度投產。

Nvidia AI Workbench,模型即服務

此外,為了加快全球企業(yè)定制化采用生成式 AI,老黃宣布英偉達即將推出 Nvidia AI Workbench。

盡管很多預訓練模型都是開源的,但使其定制化服務自身業(yè)務仍然具有挑戰(zhàn)性。AI Workbench 減輕了企業(yè) AI 項目入門的復雜程度,將所有必要的企業(yè)級模型、框架、軟件開發(fā)套件和庫整合到統(tǒng)一的 workspace 之中。

只需要在本地系統(tǒng)上運行的簡化界面進行點擊,AI Workbench 就能讓開發(fā)者使用自定義數(shù)據(jù)微調 Hugging Face、GitHub 和 NGC 等流行存儲庫中的模型,然后將其擴展到數(shù)據(jù)中心、公有云或 Nvidia DGX 云。

黃仁勛還宣布英偉達將與 Hugging Face 合作,開發(fā)人員將能夠訪問 Hugging Face 平臺中的 NVIDIA DGX Cloud AI 超級計算來訓練和調整 AI 模型。這將使數(shù)百萬構建大型語言模型和其他高級 AI 應用程序的開發(fā)人員能夠輕松實現(xiàn)生成式 AI 超級計算。

「這將是一項全新的服務,將世界上最大的人工智能社區(qū)與世界上最好的訓練和基礎設施連接起來,」黃仁勛表示。

全新的 RTX 工作站和 Omniverse

老黃還宣布,英偉達與 BOXX、戴爾科技、惠普和聯(lián)想等工作站制造商合作,打造了一系列全新的高性能 RTX 工作站。

最新發(fā)布的 RTX 工作站提供多達四個英偉達 RTX 6000 Ada GPU,每個 GPU 配備 48GB 內存。單個桌面工作站可提供高達 5828 TFLOPS 的性能和 192GB 的 GPU 內存。

根據(jù)用戶需求,這些系統(tǒng)可配置 Nvidia AI Enterprise 或 Omniverse Enterprise 軟件,為各種要求苛刻的生成式 AI 和圖形密集型工作負載提供必要的動力。這些新發(fā)布預計將于秋季推出。

新發(fā)布的 Nvidia AI Enterprise 4.0 引入了 Nvidia NeMo,這是一個用于構建和定制生成式 AI 基礎模型的端到端框架。它還包括用于數(shù)據(jù)科學的 Nvidia Rapids 庫,并為常見企業(yè) AI 用例(例如推薦器、虛擬助理和網絡安全解決方案)提供框架、預訓練模型和工具。

工業(yè)數(shù)字化平臺 Omniverse Enterprise 是 Nvidia 生態(tài)系統(tǒng)的另一個組成部分,讓團隊能夠開發(fā)可互操作的 3D 工作流程和 OpenUSD 應用程序。Omniverse 利用其 OpenUSD 原生平臺,使全球分布的團隊能夠協(xié)作處理來自數(shù)百個 3D 應用程序的完整設計保真度數(shù)據(jù)集。

此次英偉達主要升級了 Omniverse Kit(用于開發(fā)原生 OpenUSD 應用和擴展程序的引擎),以及 NVIDIA Omniverse Audio2Face 基礎應用和空間計算功能。開發(fā)者可以輕松地利用英偉達提供的 600 多個核心 Omniverse 擴展程序來構建自定義應用。

作為發(fā)布的一部分,英偉達還推出了三款全新的桌面工作站 Ada Generation GPU:Nvidia RTX 5000、RTX 4500 和 RTX 4000。

全新 NVIDIA RTX 5000、RTX 4500 和 RTX 4000 桌面 GPU 采用最新的 NVIDIA Ada Lovelace 架構技術。其中包括增強的 NVIDIA CUDA 核心(用于增強單精度浮點吞吐量)、第三代 RT 核心(用于改進光線追蹤功能)以及第四代 Tensor 核心(用于更快的 AI 訓練性能)。

Nvidia RTX 5000 Ada 一代 GPU。

這幾款 GPU 還支持 DLSS 3,為實時圖形提供更高水平的真實感和交互性,以及更大的 GPU 內存選項,用于大型 3D 模型、渲染圖像、模擬和 AI 數(shù)據(jù)集的無差錯計算。此外,它們還提供擴展現(xiàn)實功能,以滿足創(chuàng)建高性能 AR、VR 和混合現(xiàn)實內容的需求。

因為配備了第三代 RT Core,這幾款 GPU 的吞吐量高達上一代的 2 倍,使用戶能夠實時處理更大、保真度更高的圖像,將應用于藝術創(chuàng)作和設計生產。

RTX 5000 GPU 已經上市,并由 HP 和分銷合作伙伴發(fā)貨,而 RTX 4500 和 RTX 4000 GPU 將于秋季從 BOXX、Dell Technologies、HP、Lenovo 及其各自的分銷合作伙伴上市。

Nvidia OVX 服務器

英偉達還推出了配備 Nvidia L40S GPU 的 Nvidia OVX 服務器,用于生成式 AI 和數(shù)字化時代的開發(fā)和內容創(chuàng)作。

每臺 Nvidia OVX 服務器將支持多達 8 個 Nvidia L40S GPU,每個 GPU 配備 48GB 內存。L40S GPU 由 Nvidia Ada Lovelace GPU 架構提供支持,擁有第四代張量核心和 FP8 Transformer 引擎,可實現(xiàn)超過 1.45 petaflops 的張量處理能力。

Nvidia L40S GPU。

在具有數(shù)十億參數(shù)和多種數(shù)據(jù)模式的生成式 AI 工作負載領域,與 Nvidia A100 Tensor Core GPU 相比,L40S GPU 的生成式 AI 推理性能提高了 1.2 倍,訓練性能提高了 1.7 倍。這將更好地滿足 AI 訓練和推理、3D 設計和可視化、視頻處理和工業(yè)數(shù)字化等計算密集型應用的需求,加速多個行業(yè)的工作流程和服務。






審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA技術
    +關注

    關注

    0

    文章

    17

    瀏覽量

    6259
  • 晶體管
    +關注

    關注

    77

    文章

    9609

    瀏覽量

    137659
  • 英偉達
    +關注

    關注

    22

    文章

    3720

    瀏覽量

    90690
  • GPU芯片
    +關注

    關注

    1

    文章

    303

    瀏覽量

    5770
  • NGC
    NGC
    +關注

    關注

    0

    文章

    8

    瀏覽量

    3830

原文標題:超級芯片GH200發(fā)布,AI算力是H100兩倍

文章出處:【微信號:AI_Architect,微信公眾號:智能計算芯世界】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    英偉達發(fā)布新一代H200,搭載HBM3e,推理速度是H100兩倍!

    和B100芯片。來源:英偉達官網 ? 首款搭載HBM3e 的GPU ,推理速度幾乎是H100兩倍 ? 與A
    的頭像 發(fā)表于 11-15 01:15 ?3390次閱讀
    英偉達<b class='flag-5'>發(fā)布</b>新一代<b class='flag-5'>H200</b>,搭載HBM3e,推理速度是<b class='flag-5'>H100</b><b class='flag-5'>兩倍</b>!

    英偉達H100芯片市場降溫

    隨著英偉達新一代AI芯片GB200需求的不斷攀升,其上一代明星產品H100芯片卻遭遇了市場的冷落。據(jù)業(yè)內人士透露,搭載
    的頭像 發(fā)表于 10-28 15:42 ?257次閱讀

    NVIDIA AI Enterprise榮獲金獎

    NVIDIA AI Enterprise、GH200 Grace Hopper 超級芯片和 Spectrum-X 在 COMPUTEX 2024 獲得認可。
    的頭像 發(fā)表于 05-29 09:27 ?402次閱讀
    NVIDIA <b class='flag-5'>AI</b> Enterprise榮獲金獎

    進一步解讀英偉達 Blackwell 架構、NVlink及GB200 超級芯片

    H100 Tensor Core GPU 快 6 。 采用液體冷卻的 GB200 計算托盤可實現(xiàn)高能效和高計算精密度 NVIDIA GB200 Grace Blackwell
    發(fā)表于 05-13 17:16

    英偉達H200怎么樣

    英偉達H200非常強大。作為新一代AI芯片,H200在性能上有了顯著的提升,能夠處理復雜的
    的頭像 發(fā)表于 03-07 16:15 ?1922次閱讀

    英偉達H200H100的比較

    英偉達H200H100款不同的AI芯片,它們各自具有獨特的特點和優(yōu)勢。以下是關于這
    的頭像 發(fā)表于 03-07 15:53 ?4039次閱讀

    中國芯片企業(yè)芯片完全解析

    AI 、低功耗等對服務器芯片提出新的要求,英偉達 G
    的頭像 發(fā)表于 01-22 15:07 ?1922次閱讀
    中國<b class='flag-5'>芯片</b>企業(yè)<b class='flag-5'>芯片</b>完全解析

    英偉達斥資預購HBM3內存,為H200超級芯片儲備產能

    據(jù)最新傳聞,英偉達正在籌劃發(fā)布款搭載HBM3E內存的新品——包括141GB HBM3E的H200 GPU及GH200超級
    的頭像 發(fā)表于 01-02 09:27 ?696次閱讀

    AWS成為第一個提供NVIDIA GH200 Grace Hopper超級芯片的提供商

    2023年的AWS re:Invent大會上,AWS和NVIDIA宣布AWS將成為第一個提供NVIDIA GH200 Grace Hopper超級芯片的云服務提供商。
    的頭像 發(fā)表于 11-30 09:24 ?609次閱讀
    AWS成為第一個提供NVIDIA <b class='flag-5'>GH200</b> Grace Hopper<b class='flag-5'>超級</b><b class='flag-5'>芯片</b>的提供商

    亞馬遜云科技與 NVIDIA 宣布開展戰(zhàn)略合作,為生成式 AI 提供全新超級計算基礎架構、軟件和服務

    亞馬遜云科技將提供首款搭載 NVIDIA Grace Hopper 超級芯片 和亞馬遜云科技可擴展性 UltraCluster 的云? AI 超級計算機。 首款采用 NVIDIA
    的頭像 發(fā)表于 11-29 21:00 ?595次閱讀
    亞馬遜云科技與 NVIDIA 宣布開展戰(zhàn)略合作,為生成式 <b class='flag-5'>AI</b> 提供全新<b class='flag-5'>超級</b>計算基礎架構、軟件和服務

    英偉達發(fā)布最新AI芯片H200:性能提升2,成本下降50%

    很明顯,如果能在相同的功率范圍之內實現(xiàn) 2 的性能提升,就意味著實際能耗和總體擁有成本降低了 50%。所以從理論上講,英偉達似乎可以讓 H200 GPU 的價格與 H100 持平。
    的頭像 發(fā)表于 11-22 17:14 ?1530次閱讀
    英偉達<b class='flag-5'>發(fā)布</b>最新<b class='flag-5'>AI</b><b class='flag-5'>芯片</b><b class='flag-5'>H200</b>:性能提升2<b class='flag-5'>倍</b>,成本下降50%

    英偉達推出用于人工智能工作的頂級芯片HGX H200

    近日,英偉達推出了一款用于人工智能工作的頂級芯片HGX H200。新的GPU升級了需求巨大的H100,內存帶寬增加了1.4,內存容量增加了1.8
    的頭像 發(fā)表于 11-15 14:34 ?1430次閱讀

    英偉達推出新款AI芯片H200 性能飆升90%但是估計依然被出口管制

    大,也是H100的升級版,號稱性能飆升90%;全球最強 AI 芯片。 據(jù)英偉達的消息,H200擁有141GB的內存、4.8TB/秒的帶寬,并將與H1
    的頭像 發(fā)表于 11-14 16:45 ?1463次閱讀
    英偉達推出新款<b class='flag-5'>AI</b><b class='flag-5'>芯片</b><b class='flag-5'>H200</b> 性能飆升90%但是估計依然被出口管制

    世界最強AIH200發(fā)布,英偉達:性能提升90%

    在備受關注的人工智能領域,英偉達表示,h200將進一步提高性能。llama 2(700億個llm)的推理速度是h100兩倍。未來的軟件更新有望為h200帶來更多的性能和改進。
    的頭像 發(fā)表于 11-14 10:49 ?1105次閱讀

    傳英偉達新AI芯片H20綜合算H100降80%

    但據(jù)悉,三種新型AI芯片不是“改良型”,而是“縮小型”。用于ai模型教育的hgx h20的帶寬和計算速度是有限的。整體計算能力理論上比nvidia的
    的頭像 發(fā)表于 11-13 09:41 ?1636次閱讀