0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

英偉達GH200、特斯拉Dojo超級算力集群,性能爆棚!算力之爭加??!

Carol Li ? 來源:電子發(fā)燒友網(wǎng) ? 作者:李彎彎 ? 2023-09-14 09:10 ? 次閱讀

電子發(fā)燒友網(wǎng)報道(文/李彎彎)今年8月,在計算機圖形學頂會SIGGRAPH 2023現(xiàn)場,英偉達發(fā)布了新一代GH200 Grace Hopper平臺,該平臺專為處理大語言模型、推薦系統(tǒng)、矢量數(shù)據(jù)庫等全球最復雜的生成式 AI 工作負載而構建。

日前,這款GH200 Grace Hopper超級芯片首次亮相MLPerf行業(yè)基準測試,在此次測試中,具有更高的內(nèi)存帶寬和更大的內(nèi)存容量的GH200與H100 GPU相比,性能高出17%。要知道,英偉達的H100 GPU產(chǎn)品性能在業(yè)界已經(jīng)是處于遙遙領先的水平。

相比于H100 GPU,英偉達新一代GH200性能高出17%

英偉達在去年3月推出了第一代Grace Hopper超級芯片平臺,首次將CPU和GPU融合在一個平臺上。相比較之下,其今年8月推出的新一代產(chǎn)品配備了HBM3e,內(nèi)存容量和帶寬都有顯著提高。HBM3e內(nèi)存是一種新型的高帶寬內(nèi)存技術,可以在更小的空間內(nèi)提供更高的數(shù)據(jù)傳輸速率。

具體來看,HBM3e比當前的HBM3快50%,可提供總計10TB/s的帶寬。這使得新平臺能夠運行比上一版本大3.5倍的模型,同時憑借快3倍的內(nèi)存帶寬提升性能。

黃仁勛此前表示,為了滿足對生成式AI不斷激增的需求,數(shù)據(jù)中心需要能夠滿足特定需求的加速計算平臺。全新GH200 Grace Hopper超級芯片平臺以出色的內(nèi)存技術和帶寬,提高了吞吐量,在不影響性能的情況下可連接多GPU 以整合性能,并且具有可以輕松部署到整個數(shù)據(jù)中心的服務器設計。

此外,新平臺可以通過 NVIDIA NVLink與其他超級芯片連接,使它們能夠協(xié)同工作,從而部署當下大型生成式AI模型。

新平臺和芯片的加持,能讓大模型訓練的成本得到有效降低。據(jù)黃仁勛介紹,一臺服務器可以同時裝載兩個GH200超級芯片。而投資800萬美元Grace Hopper,相當于8800個價值1億美元的x86 GPU,意味著成本降低12倍,能耗降低20倍。

在此次MLPerf行業(yè)基準測試,英偉達這款GH200 Grace Hopper超級芯片將其性能之高展示無余。MLPerf是影響力廣泛的國際AI性能基準評測,其推理性能評測涵蓋使用廣泛的六大AI場景,比如計算機視覺、自然語言處理、推薦系統(tǒng)、語音識別等,每個場景采用最主流的AI模型作為測試任務,每一任務又分為數(shù)據(jù)中心和邊緣兩類場景。

其由MLCommons由來自學術界、研究實驗室和行業(yè)的人工智能領導者組成的聯(lián)盟開發(fā),旨在對硬件、軟件和服務的訓練和推理性能“構建公平和有用的基準測試”。

據(jù)介紹,此次MLPerf Inference v3.1基準測試是繼4月發(fā)布3.0版本之后的又一次更新,值得注意的是,這次更新包含了兩個第一次:引入基于60億參數(shù)大語言模型GPT-J的推理基準測試和改進的推薦模型。

GPT-J是來自EleutherAI的OpenAI GPT-3的開源替代品,現(xiàn)已在MLPerf套件中用作衡量推理性能的基準。與一些更先進的人工智能模型(如1750億參數(shù)的GPT-3)相比,60億參數(shù)的GPT-J屬于相當輕量的模型,但它非常適合推理基準的角色。該模型總結了文本塊,并可在延遲敏感的在線模式和吞吐量密集型的離線模式下運行。

GH200 Grace Hopper超級芯片在GPT-J工作負載方面取得了優(yōu)異的成績,在離線和服務器場景中的每加速器性能都達到了最高水平。

包括特斯拉,眾多企業(yè)積極構建算力芯片和集群

隨著人工智能技術的發(fā)展,尤其是近年來生成式AI及大模型應用的快速拓展,市場對算力的需求快速增加。我們知道,無論是AI訓練還是推理,都需要大量的算力作為支撐。而目前在大模型的訓練和推理方面,英偉達的GPU占據(jù)重要位置。

今年以來,英偉達的A100和H100兩款芯片訂單不斷增加,價格也在一直上漲。根據(jù)其最新的第二財季報告,其凈利潤達到61.88億美元,與去年同期相比增長422%,較上一財季增長203%。據(jù)業(yè)內(nèi)人士推測,英偉達H100芯片明年出貨量還要至少增加兩倍。

在AI迅猛發(fā)展的當下,除了英偉達,國內(nèi)外企業(yè)都在積極研發(fā)AI芯片,構建自己的算力集群,比如英特爾、AMD此前都針對AI大模型推出了相應的大算力芯片產(chǎn)品。國內(nèi)的不少GPGPU企業(yè)及云服務廠商也都在積極布局。

此外,作為全球知名自動駕駛企業(yè),特斯拉也早已開始研發(fā)自己的算力芯片,打造自己的超級計算機。最近,特斯拉的股票大漲,摩根士丹利分析師認為,特斯拉超級計算機Dojo釋放人工智能提升業(yè)績的巨大潛力,成為其股價走強的主因之一。

在產(chǎn)品形態(tài)上,特斯拉的Dojo最終落地單位是一個名為ExaPOD的超級計算集群。它集成了3000顆基于7nm制程工藝的D1芯片,包含120個訓練模塊,最終能夠實現(xiàn)高達 1.1 EFlops(百億億次浮點運算)的BF16/CFP8峰值算力;1.3TB高速 SRAM;13TB高帶寬 DRAM

在2021年的特斯拉AI Day上,Dojo超算項目負責人Ganesh Venkataramana展示了集成了25個D1芯片的訓練模塊,他表示特斯拉找到的一個關鍵答案是用臺積電的InFO_SoW整合扇出技術。這是一種芯片先進封裝技術,相比于傳統(tǒng)的打線封裝,InFO技術的基本優(yōu)勢是可以實現(xiàn)多個芯片集成封裝,加速信號傳遞。

特斯拉打算利用Dojo對海量視頻數(shù)據(jù)進行無監(jiān)督學習,加速Autopilot和完全自動駕駛(FSD)系統(tǒng)的迭代,同時為其人形機器人Optimus提供算力支持。

在2022年9月的AI Day上,特斯拉公布Dojo已建立完整的散熱盤上系統(tǒng)。同時也宣布了未來路線圖,表示AI團隊正在研發(fā)新版本的Dojo超算組件。

據(jù)今年7月20日的報道,特斯拉Dojo超算已在今年7月開始量產(chǎn),而總算力達100ExaFLOPs的超算系統(tǒng)將于2024年底量產(chǎn)。

特斯拉之前已經(jīng)構建基于英偉達GPU的大型超級計算機,而如今其自主研發(fā)并推出D1芯片,有助于其減少對英偉達GPU的依賴。

小結

從目前的情況來看,英偉達在AI訓練和推理中占據(jù)極大的市場份額,在大模型領域更是占據(jù)絕對優(yōu)勢,國內(nèi)外大部分企業(yè)都依賴英偉達A100、H100等產(chǎn)品,而如今其GH200在性能上更強,在大模型訓練方面又能夠幫助企業(yè)降低成本,必然會受到一眾企業(yè)追捧。

當然除了英偉達,國外內(nèi)還有眾多企業(yè)也在通過自己的方式,研究并發(fā)布適合AI訓練和部署芯片,為AI行業(yè)的發(fā)展構建算力集群??梢钥吹?,在生成式AI、大模型的發(fā)展下,作為基礎支撐的算力尤為重要。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 特斯拉
    +關注

    關注

    66

    文章

    6286

    瀏覽量

    126413
  • 英偉達
    +關注

    關注

    22

    文章

    3720

    瀏覽量

    90683
收藏 人收藏

    評論

    相關推薦

    【「芯片 | 高性能 CPU/GPU/NPU 微架構分析」閱讀體驗】--全書概覽

    1章 從TOP500和MLPerf看芯片格局 1.1科學最前沿TOP500 1.2 AI
    發(fā)表于 10-15 22:08

    名單公布!【書籍評測活動NO.43】 芯片 | 高性能 CPU/GPU/NPU 微架構分析

    社會資源和資本力量關注芯片的發(fā)展,希望我們的國家能夠更獨立自主地設計制造高性能芯片。 內(nèi)容簡介: 本書介紹了
    發(fā)表于 09-02 10:09

    大模型時代的需求

    現(xiàn)在AI已進入大模型時代,各企業(yè)都爭相部署大模型,但如何保證大模型的,以及相關的穩(wěn)定性和性能,是一個極為重要的問題,帶著這個極為重要的問題,我需要在此書中找到答案。
    發(fā)表于 08-20 09:04

    特斯拉得州超級計算集群命名“Cortex”

    特斯拉在科技創(chuàng)新的征途上再邁重要一步,其得克薩斯州超級計算集群正式命名為“Cortex”。該集群由馬斯克親自命名,并在其最近的參觀中公開亮相。據(jù)馬斯克透露,“Cortex”集成了約10
    的頭像 發(fā)表于 08-06 11:16 ?510次閱讀

    力系列基礎篇——與計算機性能:解鎖超能力的神秘力量!

    在《力系列基礎篇——101:從零開始了解》中,相信各位粉絲初步了解到人工智能的“發(fā)動機”和核心驅動力:
    的頭像 發(fā)表于 07-11 08:04 ?104次閱讀
    <b class='flag-5'>算</b>力系列基礎篇——<b class='flag-5'>算</b><b class='flag-5'>力</b>與計算機<b class='flag-5'>性能</b>:解鎖超能力的神秘力量!

    英偉巨資預訂HBM3E,力拼上半年市場

    在全球AI芯片領域的激烈競爭中,英偉以其卓越的技術實力和市場影響,始終保持著領先地位。最近,這家AI芯片大廠再次展現(xiàn)出了其獨特的戰(zhàn)略眼光和強大的資金實力,以確保其新品GH200和H
    的頭像 發(fā)表于 06-22 16:46 ?932次閱讀

    鴻海與英偉攜手打造超級中心

    在全球AI技術飛速發(fā)展的浪潮中,鴻??萍技瘓F再次展現(xiàn)出其作為行業(yè)巨頭的領導和前瞻性。近日,在臺北電腦展上,鴻??萍技瘓F宣布將與英偉展開深度合作,共同在高雄建設一座先進的
    的頭像 發(fā)表于 06-05 11:21 ?1019次閱讀

    力系列基礎篇——101:從零開始了解

    相信大家已經(jīng)感受到,我們正處在一個人工智能時代。如果要問在人工智能時代最重要的是什么?那必須是:!
    的頭像 發(fā)表于 04-24 08:05 ?1002次閱讀
    <b class='flag-5'>算</b>力系列基礎篇——<b class='flag-5'>算</b><b class='flag-5'>力</b>101:從零開始了解<b class='flag-5'>算</b><b class='flag-5'>力</b>

    十問:超,通存比

    鄔賀銓指出,現(xiàn)有測算方法難以精準衡量。國內(nèi)企業(yè)服務器的出貨量并不等于國內(nèi)市場的使用量,而且進口國外的服務器未統(tǒng)計在內(nèi);服務器出貨量也不等于上架量,更不等于已經(jīng)加電使用量。通常服務器集群
    的頭像 發(fā)表于 04-13 11:40 ?4110次閱讀

    英偉H200怎么樣

    英偉H200非常強大。作為新一代AI芯片,H200
    的頭像 發(fā)表于 03-07 16:15 ?1922次閱讀

    中國電信規(guī)劃在上海建設首個國產(chǎn)超大規(guī)模液冷集群

    中國電信規(guī)劃建設首個國產(chǎn)超大規(guī)模液冷集群 人工智能技術的快速發(fā)展催生了巨大的需求;中國電信規(guī)劃在上海規(guī)劃建設可支持萬億參數(shù)大模型訓練
    的頭像 發(fā)表于 02-22 18:48 ?1289次閱讀

    智能規(guī)模超通用,大模型對智能提出高要求

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)是設備通過處理數(shù)據(jù),實現(xiàn)特定結果輸出的計算能力,常用FLOPS作為計量單位。FLOPS是Floating-point Operations Per Second
    的頭像 發(fā)表于 02-06 00:08 ?5943次閱讀

    國產(chǎn)服務器主陣地有哪些?

    AI 、低功耗等對服務器芯片提出新的要求,英偉 G
    的頭像 發(fā)表于 01-29 11:29 ?1114次閱讀
    國產(chǎn)服務器主陣地有哪些?

    大茉莉X16-P,5800M大稱王稱霸

    Rykj365
    發(fā)布于 :2024年01月25日 14:54:52

    中國芯片企業(yè)芯片完全解析

    AI 、低功耗等對服務器芯片提出新的要求,英偉 G
    的頭像 發(fā)表于 01-22 15:07 ?1922次閱讀
    中國芯片企業(yè)芯片完全解析