0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

數(shù)據(jù)中心AI芯片上升趨勢能夠持續(xù)多久呢?

SDNLAB ? 來源:SDNLAB ? 2024-01-24 16:26 ? 次閱讀

2024年很有可能成為AI芯片的元年。

有預測稱,今年AI芯片可能會迎來強勁甚至迅猛的增長。然而,一個令人關注的問題是,這種上升趨勢能夠持續(xù)多久呢?

2023年底,AMD大膽地宣稱,到2027年,數(shù)據(jù)中心AI芯片的總潛在市場(TAM)將達到4000億美元,復合年增長率(CAGR)超過70%。這一預測引起了不同的反應,但也從側面說明了大型語言模型(LLM)作為處理生成式人工智能(GenAI)應用核心的驅(qū)動力。

作為圖形處理單元(GPU)市場的領導者,英偉達的成功證明了這些芯片的潛在市場規(guī)模。英偉達過去一年的股價上漲了217%,在過去三年增長了140%。

最新的11月財報中,英偉達公布的營收為181.2億美元,其中數(shù)據(jù)中心營收為145.1億美元。整體銷售額同比增長206%,而數(shù)據(jù)中心銷售額同期增長了279%。所有這些都證實了數(shù)據(jù)中心芯片的銷售正經(jīng)歷急劇上升的趨勢。然而,關鍵問題是,這個增長趨勢是否能夠達到4000 億美元的高度。

英偉達在數(shù)據(jù)中心AI GPU市場至少占據(jù)80%的份額,未來三年預計將迎來巨大增長。然而,要實現(xiàn)高達4000億美元的市場規(guī)模,英偉達的表現(xiàn)需要比目前更出色,同時其他廠商也需要超出預期。

競爭者不甘示弱

AMD

AMD 認為其將在未來三年內(nèi)實現(xiàn)大幅增長。2023 年 12 月,AMD發(fā)布了MI300 系列芯片,旨在在推理方面超越英偉達的GPU。同時發(fā)布的另一款產(chǎn)品AMD Instinct MI300A加速處理單元(APU),將CPU和GPU核心與內(nèi)存集成在一個平臺中。

MI300X 專為云提供商和企業(yè)設計,專為生成式 AI 應用而打造,MI300X GPU 擁有超過 1500 億個晶體管,以 2.4 倍的內(nèi)存超越了英偉達的 H100。峰值內(nèi)存帶寬達到 5.3 TB/s ,是H100 3.3 TB/s 的 1.6 倍。

wKgaomWwyh2AanXtAAFoeSiXcEU384.jpg

AMD Instinct MI300A APU 配備 128GB HBM3 內(nèi)存。據(jù)稱,與之前的 M250X 處理器相比,MI300A 在 HPC 和 AI 工作負載上的每瓦性能提高了 1.9 倍。

AMD 總裁兼首席執(zhí)行官蘇姿豐 (Lisa Su) 在去年 10 月的公司第三季度電話會議上表示:“隨著 2024 年的到來,我們預計收入將持續(xù)增長,而且主要來源將是AI?!薄霸贏I領域,我們的客戶覆蓋面很廣,包括從超大規(guī)模企業(yè)到原始設備制造商、企業(yè)客戶以及一些新的人工智能初創(chuàng)企業(yè)。從工作負載的角度來看,我們希望 MI300 能夠同時處理訓練和推理工作負載?!?/p>

英特爾

英特爾上個月推出了AI芯片 Gaudi3 以及第五代 Xeon 處理器,作為進一步進軍數(shù)據(jù)中心AI市場的一部分。

英特爾表示,Gaudi3 是專為深度學習和創(chuàng)建大規(guī)模生成人工智能模型而設計的下一代人工智能加速器,將與英偉達的 H100 和 AMD 的 MI300X 展開競爭。

英特爾聲稱Xeon 是唯一內(nèi)置 AI 加速的主流數(shù)據(jù)中心處理器,全新第五代 Xeon 在多達 200 億個參數(shù)的模型上提供高達 42% 的推理和微調(diào)能力。它也是唯一一款具有一致且不斷改進的 MLPerf 訓練和推理基準測試結果的 CPU。

Xeon的內(nèi)置人工智能加速器,加上優(yōu)化的軟件和增強的遙測功能,可以為通信服務提供商、內(nèi)容交付網(wǎng)絡和包括零售、醫(yī)療保健和制造在內(nèi)的廣泛垂直市場實現(xiàn)更易于管理、更高效的高要求網(wǎng)絡和邊緣工作負載部署。

云廠商各顯神通

AWS、谷歌等云廠商一直在為自己的大型數(shù)據(jù)中心打造定制芯片。一方面是不想過度依賴英偉達,另外針對自身需求定制芯片也有助于提高性能和降低成本。

AWS

亞馬遜的AI芯片Trainium和Inferentia專為訓練和運行大型人工智能模型而設計。

AWS Trainium2是 AWS 專門為超過 1000 億個參數(shù)模型的深度學習訓練打造的第二代機器學習 (ML) 加速器。AWS CEO Adam Selipsky 表示,近期推出的Trainium2的速度是其前身的4倍,能源效率是其之前的2倍。Tranium2 將在 AWS 云中由 16 個芯片組成的集群中的 EC Trn2 實例中使用,在 AWS 的 EC2 UltraCluster 產(chǎn)品中可擴展到多達 10萬個芯片。AWS表示,10萬個 Trainium 芯片可提供 65 exaflops 的計算能力,相當于每個芯片可提供 650 teraflops 的計算能力。

AWS Inferentia2 加速器與第一代相比在性能和功能方面實現(xiàn)了重大飛躍。Inferentia2 的吞吐量提高了 4 倍,延遲低至 1/10。

wKgZomWwyh2AAQ50AATwyIe9CyQ876.jpg

AWS Inferentia2 支持多種數(shù)據(jù)類型,包括 FP32、TF32、BF16、FP16 和 UINT8,還支持新的可配置 FP8 (cFP8) 數(shù)據(jù)類型,因為它減少了模型的內(nèi)存占用和 I/O 要求。AWS Inferentia2 具有嵌入式通用數(shù)字信號處理器 (DSP),可實現(xiàn)動態(tài)執(zhí)行,因此無需在主機上展開或執(zhí)行控制流運算符。AWS Inferentia2 還支持動態(tài)輸入形狀,這對于輸入張量大小未知的模型(例如處理文本的模型)至關重要。AWS Inferentia2 支持用 C++ 編寫的自定義運算符。

谷歌

2023 年 12 月,谷歌發(fā)布最新的Cloud TPU v5p,并號稱是迄今最強大的TPU。每個 TPU v5p Pod由 8,960 個芯片組成,采用 3D 環(huán)面拓撲,互連速度達 4,800 Gbps。與 TPU v4 相比,TPU v5p 的FLOPS 提高了 2 倍以上,高帶寬內(nèi)存 (HBM) 提高了 3 倍以上。

TPU v5p 專為性能、靈活性和規(guī)模而設計,訓練大型 LLM 模型的速度比上一代 TPU v4 快 2.8 倍。此外,借助第二代SparseCores,TPU v5p訓練嵌入密集模型的速度比 TPU v4 2快 1.9 倍。

wKgZomWwyh2AKBWwAAEk7HCtivA186.jpg

除了性能改進之外,TPU v5p 在每個 pod 的總可用 FLOP 方面的可擴展性也比 TPU v4 高 4 倍。與 TPU v4 相比,每秒浮點運算次數(shù) (FLOPS) 加倍,并且單個 Pod 中的芯片數(shù)量加倍,可顯著提高訓練速度的相對性能。

wKgaomWwyh2AJzznAAVYDmdWezI186.jpg

微軟

2023 年 11 月,微軟推出了AI芯片Azure Maia 100。Maia 100 是 Maia AI 加速器系列中的首款產(chǎn)品。

Maia 采用 5 nm臺積電工藝制造,擁有 1050 億個晶體管,比 AMD MI300X AI GPU的 1530 億個晶體管少約 30% 。微軟表示,“Maia 支持我們首次實現(xiàn)低于 8 位數(shù)據(jù)類型(MX 數(shù)據(jù)類型),以便共同設計硬件和軟件,這有助于我們支持更快的模型訓練和推理時間。”

Maia 100 目前正在 GPT 3.5 Turbo 上進行測試,該模型也為 ChatGPT、Bing AI 工作負載和 GitHub Copilot 提供支持。微軟正處于部署的早期階段,還不愿意發(fā)布確切的 Maia 規(guī)范或性能基準。

總的來說,從AMD 4000億美元市場的預測中至少可以得出三個結論:首先,數(shù)據(jù)中心仍是短期內(nèi)AI芯片的焦點;其次,數(shù)據(jù)中心 AI芯片領域正急劇上升,盡管上升的幅度仍然是一個問題;第三, 英偉達將繼續(xù)在該領域占據(jù)主導地位,但包括 AMD 在內(nèi)的其他供應商正努力削弱其地位。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 處理器
    +關注

    關注

    68

    文章

    18924

    瀏覽量

    227212
  • gpu
    gpu
    +關注

    關注

    27

    文章

    4590

    瀏覽量

    128140
  • 晶體管
    +關注

    關注

    77

    文章

    9499

    瀏覽量

    136929
  • HPC
    HPC
    +關注

    關注

    0

    文章

    298

    瀏覽量

    23534
  • AI芯片
    +關注

    關注

    17

    文章

    1828

    瀏覽量

    34664

原文標題:數(shù)據(jù)中心AI芯片市場有多大?

文章出處:【微信號:SDNLAB,微信公眾號:SDNLAB】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    數(shù)據(jù)中心AI時代轉(zhuǎn)型:挑戰(zhàn)與機遇

    隨著人工智能(AI)的迅速發(fā)展和廣泛應用,數(shù)據(jù)中心作為AI技術的基石,也面臨著前所未有的挑戰(zhàn)和機遇。為了滿足AI的高性能和低延遲要求,數(shù)據(jù)中心
    的頭像 發(fā)表于 07-24 08:28 ?380次閱讀
    <b class='flag-5'>數(shù)據(jù)中心</b>的<b class='flag-5'>AI</b>時代轉(zhuǎn)型:挑戰(zhàn)與機遇

    AI時代,我們需要怎樣的數(shù)據(jù)中心?AI重新定義數(shù)據(jù)中心

    超過60%的中國企業(yè)計劃在未來12至24個月內(nèi)部署生成式人工智能。AI、模型的構建,將顛覆數(shù)據(jù)中心基礎設施的建設、運維和運營。一個全新的數(shù)據(jù)中心智能化時代已經(jīng)拉開序幕。
    發(fā)表于 07-16 11:33 ?286次閱讀
    <b class='flag-5'>AI</b>時代,我們需要怎樣的<b class='flag-5'>數(shù)據(jù)中心</b>?<b class='flag-5'>AI</b>重新定義<b class='flag-5'>數(shù)據(jù)中心</b>

    HNS 2024:星河AI數(shù)據(jù)中心網(wǎng)絡,賦AI時代新動能

    華為數(shù)據(jù)通信創(chuàng)新峰會2024在巴庫隆重舉辦,在“星河AI數(shù)據(jù)中心網(wǎng)絡,賦AI時代新動能”主題論壇中,華為面向中東中亞地區(qū)發(fā)布星河AI
    的頭像 發(fā)表于 05-15 09:15 ?437次閱讀
    HNS 2024:星河<b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>網(wǎng)絡,賦<b class='flag-5'>AI</b>時代新動能

    蘋果正在開發(fā)用于數(shù)據(jù)中心AI芯片

    蘋果公司長期以來一直致力于自主研發(fā)芯片技術,最新的研發(fā)焦點已轉(zhuǎn)移至數(shù)據(jù)中心服務器芯片。據(jù)悉,該項目的內(nèi)部代號為ACDC,寓意著“數(shù)據(jù)中心蘋果芯片
    的頭像 發(fā)表于 05-13 10:59 ?367次閱讀

    蘋果正在研發(fā)全新數(shù)據(jù)中心AI芯片

    蘋果正在秘密研發(fā)一款全新的數(shù)據(jù)中心AI芯片,這一項目在公司內(nèi)部被稱為“ACDC”,并且已經(jīng)經(jīng)過了數(shù)年的精心籌備。據(jù)華爾街日報的知情人士透露,這款芯片的設計目標是為了優(yōu)化蘋果
    的頭像 發(fā)表于 05-08 09:40 ?317次閱讀

    蘋果自研數(shù)據(jù)中心AI芯片

    據(jù)可靠消息透露,蘋果公司正秘密研發(fā)一款全新的AI芯片,旨在為其數(shù)據(jù)中心提供強大的算力支持。這款內(nèi)部代號為ACDC(Apple Chips in Data Center)的芯片,預計將在
    的頭像 發(fā)表于 05-07 14:44 ?296次閱讀

    #mpo極性 #數(shù)據(jù)中心mpo

    數(shù)據(jù)中心MPO
    jf_51241005
    發(fā)布于 :2024年04月07日 10:05:13

    數(shù)據(jù)中心存儲的趨勢

    隨著數(shù)據(jù)存儲需求的持續(xù)增長,數(shù)據(jù)中心存儲技術和架構不斷發(fā)展以滿足企業(yè)和消費者的需求。在本節(jié)中,我們將分析數(shù)據(jù)中心存儲未來的一些關鍵趨勢。 一
    的頭像 發(fā)表于 03-18 17:39 ?415次閱讀

    英飛凌推出高密度功率模塊,為AI數(shù)據(jù)中心降本增效

    隨著人工智能(AI)技術的飛速發(fā)展,全球數(shù)據(jù)生成量呈現(xiàn)出爆炸式增長,進而推動了芯片對能源需求的急劇上升。在這一背景下,英飛凌科技近日宣布推出TDM2254xD系列雙相功率模塊,旨在為
    的頭像 發(fā)表于 03-12 09:58 ?577次閱讀

    新加坡電信推出數(shù)據(jù)中心新品牌Nxera

    新加坡電信近日宣布推出全新的數(shù)據(jù)中心品牌Nxera,專注于開發(fā)人工智能數(shù)據(jù)中心。該公司去年12月5日已經(jīng)宣布了開發(fā)第四代、高功率密度且可持續(xù)AI數(shù)
    的頭像 發(fā)表于 02-02 14:53 ?616次閱讀

    讓數(shù)字世界堅定運行 | 華為發(fā)布2024數(shù)據(jù)中心能源十大趨勢

    碳綠色,并分享數(shù)據(jù)中心在部件、產(chǎn)品、系統(tǒng)和架構方面的技術演進趨勢,凝聚共識,洞見未來。 華為數(shù)據(jù)中心能源領域總裁堯權 堯權表示,AI大模型時代,未來5年全球
    的頭像 發(fā)表于 01-17 20:45 ?468次閱讀
    讓數(shù)字世界堅定運行 | 華為發(fā)布2024<b class='flag-5'>數(shù)據(jù)中心</b>能源十大<b class='flag-5'>趨勢</b>

    #光纜水峰 #綜合布線光纜 #數(shù)據(jù)中心

    數(shù)據(jù)中心光纜
    jf_51241005
    發(fā)布于 :2024年01月15日 09:43:26

    Microchip CEO博文《AI將如何重新定義數(shù)據(jù)中心?》

    訓練和運行的模型的大小,生成式AI的基礎設施需求預計將比早期AI模型高出10到100倍。事實上,所有數(shù)據(jù)中心基礎設施都受到這一趨勢的影響,包括電力、HVAC、網(wǎng)絡和物理布局。
    的頭像 發(fā)表于 12-11 14:50 ?1186次閱讀
    Microchip CEO博文《<b class='flag-5'>AI</b>將如何重新定義<b class='flag-5'>數(shù)據(jù)中心</b>?》

    淺談云數(shù)據(jù)中心、智算數(shù)據(jù)中心、超算數(shù)據(jù)中心區(qū)別,分布式電源是趨勢

    數(shù)據(jù)中心、智算數(shù)據(jù)中心、超算數(shù)據(jù)中心三者區(qū)別,分布式電源是趨勢 大家都在聊云數(shù)據(jù)中心、智算數(shù)據(jù)中心
    的頭像 發(fā)表于 11-29 14:20 ?1679次閱讀
    淺談云<b class='flag-5'>數(shù)據(jù)中心</b>、智算<b class='flag-5'>數(shù)據(jù)中心</b>、超算<b class='flag-5'>數(shù)據(jù)中心</b>區(qū)別,分布式電源是<b class='flag-5'>趨勢</b>

    適用于數(shù)據(jù)中心AI 時代的網(wǎng)絡

    十多年來,傳統(tǒng)的云數(shù)據(jù)中心一直是計算基礎設施的基石,滿足了各種用戶和應用程序的需求。然而,近年來,為了跟上技術的進步和對 AI 驅(qū)動的計算需求的激增,數(shù)據(jù)中心進行了發(fā)展。 本文探討了網(wǎng)絡在塑造
    的頭像 發(fā)表于 10-27 20:05 ?445次閱讀
    適用于<b class='flag-5'>數(shù)據(jù)中心</b>和 <b class='flag-5'>AI</b> 時代的網(wǎng)絡