0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

省成本還是省時間,AI計算上的GPU與ASIC之選

E4Life ? 來源:電子發(fā)燒友 ? 作者:周凱揚 ? 2023-07-17 00:01 ? 次閱讀
電子發(fā)燒友網(wǎng)報道(文/周凱揚)隨著AI計算逐漸蠶食通用計算的份額,數(shù)據(jù)中心硬件市場已經(jīng)開始出現(xiàn)了微妙的變化。最搶手的目前已經(jīng)成了GPU,反觀CPUASICFPGA等硬件,開始成為陪襯。但高昂的售價以及強綁定的供應(yīng)關(guān)系,還是讓不少企業(yè)開始探索別的出路。
仍在被瘋搶的GPU
在今年第一季度AI熱潮高漲下,全球已經(jīng)開啟了一波GPU搶購。無論是借助GPU開發(fā)各自大模型應(yīng)用的互聯(lián)網(wǎng)廠商,還是想借此發(fā)展其AI服務(wù)器業(yè)務(wù)的云服務(wù)廠商,都在搶購英偉達目前主推的A100和H100兩大GPU。
就連臺積電哪怕第一季度業(yè)績下滑明顯,其CEO魏哲家在法說會上也表示在AI相關(guān)的需求上觀察到了增量上行,將幫助其在今年實現(xiàn)可觀的庫存消化。
H100 GPU / 英偉達
在美國商務(wù)部半導(dǎo)體出口新規(guī)剛推出不久,A100在非正常渠道的單價就飆升至20000美元,是原價的兩倍左右。為此英偉達僅僅面向中國市場推出了A800和H800,只不過將高速互聯(lián)總線NVLink限制在了400GB/s,但好歹仍足以滿足大部分AI計算的需求。
可好景不長,隨著緊缺和搶購的趨勢很快蔓延到了A800和H800上,據(jù)了解,國內(nèi)市場的A800單價一周上漲了30%,從原來9萬元上升至13萬元,甚至連帶使得搭載該卡的服務(wù)器現(xiàn)貨同樣漲價,頗有當年礦潮期顯卡漲價整機一并漲價的趨勢。
使其狀況更加惡化的是,英偉達據(jù)傳大量削減了A800的供應(yīng),而是轉(zhuǎn)為推廣更高端也更昂貴的H800,單價在25萬元左右。高端的GPU無疑能夠帶來更高的性能,但性價比相對較低,大規(guī)模部署的成本也會更加難以承受。所以從全球市場的購買表現(xiàn)上來看,互聯(lián)網(wǎng)公司和云服務(wù)廠商顯然覺得A100或A800更香一點。
可為了更高的利潤轉(zhuǎn)化,英偉達決心調(diào)整A800和H800的供應(yīng)比例的話,也就說得過去了。A100的市場流通率較高,而A800這種面世不久的特供產(chǎn)品,也更方便在供應(yīng)上加以限制。
省時和省錢
既然GPU困人已久,為何不打破這一限制,轉(zhuǎn)用大規(guī)模量產(chǎn)成本更低的ASIC產(chǎn)品呢?事實上,很多廠商早就有類似的心思,只不過執(zhí)行起來卻是寸步難行。首先對于大模型這樣的AI應(yīng)用來說,硬件性能只是一個方面,擁有優(yōu)質(zhì)的軟件生態(tài)也很重要。
英偉達的CUDA成了任何進軍AI產(chǎn)業(yè)的公司在軟件生態(tài)上的一頭攔路虎,遲遲沒法突破。固然ASIC的方案可以省下不少硬件成本,但在軟件上仍有不小的障礙。初創(chuàng)公司ASIC硬件的軟件生態(tài)不成熟,巨頭自研的產(chǎn)品又難以與第三方開發(fā)結(jié)合起來,或者說能打造出爆品應(yīng)用的概率更低。
反觀CUDA,發(fā)展這么多年積累的各種library已經(jīng)逐漸趨于成熟,甚至在英偉達的GPU上優(yōu)化到了最佳狀態(tài),開發(fā)者只需要調(diào)用API即可實現(xiàn)所需的效果。這堵墻就連同為GPU廠商的AMD等競爭對手都未能攻破,因為AI時代下省時才能搶占先機,省錢是之后采取考慮的事。
話雖如此,相關(guān)的嘗試依舊沒有停止,諸如谷歌的TPU、亞馬遜的Trainium以及微軟最近在研究的Chiplet Cloud等等,都是廠商們對ASIC持續(xù)看好的表現(xiàn)??梢钥闯?,讓互聯(lián)網(wǎng)企業(yè),尤其是芯片設(shè)計能力欠缺的企業(yè),去走ASIC這條路線是很難的。而托管了諸多第三方芯片設(shè)計平臺、大模型和AI計算負載的云服務(wù)廠商,有這個技術(shù)積累,也有實力組建或已組建達標的芯片設(shè)計隊伍,最終做到省時又省錢。
寫在最后
ASIC固然前景可觀,但目前廠商們在購置GPU上花的錢多半是多于自研投入的,這也就是GPU作為通用計算硬件的future proofing性質(zhì)。可能在GPT爆火的今年,這款A(yù)SIC提供了遠超GPU的性能或成本優(yōu)勢,但未來保不齊會出現(xiàn)其他的爆品應(yīng)用。GPU可以很快調(diào)轉(zhuǎn)勢頭,但ASIC就可能會被淘汰。所以對這些公司來說,無論是購買A100還是A800,不僅是對現(xiàn)在的投資,也是對未來的投資。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • asic
    +關(guān)注

    關(guān)注

    34

    文章

    1183

    瀏覽量

    120240
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4678

    瀏覽量

    128612
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29855

    瀏覽量

    268152
收藏 人收藏

    評論

    相關(guān)推薦

    華迅光通AI計算加速800G光模塊部署

    。骨干交換機,相當于核心層交換機,直接連接到葉交換機,每個骨干交換機連接到所有葉交換機。 AI計算和800G光模塊 與傳統(tǒng)的三層拓撲結(jié)構(gòu)相比,脊葉結(jié)構(gòu)需要大量的端口。因此,無論是服務(wù)器還是交換機
    發(fā)表于 11-13 10:16

    FPGA和ASIC在大模型推理加速中的應(yīng)用

    隨著現(xiàn)在AI的快速發(fā)展,使用FPGA和ASIC進行推理加速的研究也越來越多,從目前的市場來說,有些公司已經(jīng)有了專門做推理的ASIC,像Groq的LPU,專門針對大語言模型的推理做了優(yōu)化,因此相比
    的頭像 發(fā)表于 10-29 14:12 ?164次閱讀
    FPGA和<b class='flag-5'>ASIC</b>在大模型推理加速中的應(yīng)用

    GPU加速計算平臺是什么

    GPU加速計算平臺,簡而言之,是利用圖形處理器(GPU)的強大并行計算能力來加速科學(xué)計算、數(shù)據(jù)分析、機器學(xué)習等復(fù)雜
    的頭像 發(fā)表于 10-25 09:23 ?194次閱讀

    如何計算上拉電阻的值

    ,但在對性能有更高要求或特定條件下,則需要通過更為精確的計算來確定電阻值。本文將詳細介紹如何計算上拉電阻的值。 首先,我們需要理解上拉電阻在I2C總線中的基本作用。在I2C的開漏輸出設(shè)計中,上拉電阻負責在無設(shè)備驅(qū)動總線時,將SC
    的頭像 發(fā)表于 09-09 17:20 ?386次閱讀

    人工智能在項目管理中的應(yīng)用:Atlassian Intelligence六大自動化任務(wù)方法詳解,讓Jira與Confluence效率翻倍

    的情況下節(jié)省時間和金錢的有效方法之一。無論是設(shè)置提醒還是改進寫作,AI都可以幫助您高效地完成工作。AtlassianIntelligence將AI的強大功能與At
    的頭像 發(fā)表于 08-12 11:44 ?1457次閱讀
    人工智能在項目管理中的應(yīng)用:Atlassian Intelligence六大自動化任務(wù)方法詳解,讓Jira與Confluence效率翻倍

    科技驅(qū)動未來,提升AI算力,GPU擴展正當時

    GPU可以大幅縮短AI算法的訓(xùn)練和推斷時間,從而節(jié)省時間成本
    的頭像 發(fā)表于 04-16 18:22 ?915次閱讀
    科技驅(qū)動未來,提升<b class='flag-5'>AI</b>算力,<b class='flag-5'>GPU</b>擴展正當時

    AI服務(wù)器異構(gòu)計算深度解讀

    AI服務(wù)器按芯片類型可分為CPU+GPU、CPU+FPGA、CPU+ASIC等組合形式,CPU+GPU是目前國內(nèi)的主要選擇(占比91.9%)。
    發(fā)表于 04-12 12:27 ?554次閱讀
    <b class='flag-5'>AI</b>服務(wù)器異構(gòu)<b class='flag-5'>計算</b>深度解讀

    FPGA在深度學(xué)習應(yīng)用中或?qū)⑷〈?b class='flag-5'>GPU

    基礎(chǔ)設(shè)施,人們?nèi)匀粵]有定論。如果 Mipsology 成功完成了研究實驗,許多正受 GPU 折磨的 AI 開發(fā)者將從中受益。 GPU 深度學(xué)習面臨的挑戰(zhàn) 三維圖形是 GPU 擁有如此
    發(fā)表于 03-21 15:19

    GPU理想成本揭秘,性價比

    如果新的 GPU 能夠為頻繁和不頻繁升級的玩家提供最佳性能提升,從而滿足最廣泛的 PC 游戲玩家的需求,那么這一代將被認為更加成功。
    發(fā)表于 03-15 11:15 ?585次閱讀
    <b class='flag-5'>GPU</b>理想<b class='flag-5'>成本</b>揭秘,性價比<b class='flag-5'>之</b><b class='flag-5'>選</b>

    汽車通信芯片匯總梳理

    的控制中心,優(yōu)點在于調(diào)度管理、協(xié)調(diào)能力強,但CPU計算能力相對有限。因此,對于AI高性能計算而言,人們通常用GPU/FPGA/ASIC來做加
    的頭像 發(fā)表于 02-20 16:44 ?1516次閱讀
    汽車通信芯片匯總梳理

    到底什么是ASIC和FPGA?

    ? 最后,我們還是要繞回到AI芯片的話題。 上一期,小棗君埋了一個雷,說AI計算分訓(xùn)練和推理。訓(xùn)練是GPU處于絕對領(lǐng)先地位,而推理不是。我
    發(fā)表于 01-23 19:08

    FPGA、ASIC、GPU誰是最合適的AI芯片?

    CPU、GPU遵循的是馮·諾依曼體系結(jié)構(gòu),指令要經(jīng)過存儲、譯碼、執(zhí)行等步驟,共享內(nèi)存在使用時,要經(jīng)歷仲裁和緩存。 而FPGA和ASIC并不是馮·諾依曼架構(gòu)(是哈佛架構(gòu))。以FPGA為例,它本質(zhì)上是無指令、無需共享內(nèi)存的體系結(jié)構(gòu)。
    發(fā)表于 01-06 11:20 ?1360次閱讀
    FPGA、<b class='flag-5'>ASIC</b>、<b class='flag-5'>GPU</b>誰是最合適的<b class='flag-5'>AI</b>芯片?

    英偉達用AI設(shè)計GPU算術(shù)電路有何優(yōu)勢

    大量的算術(shù)電路陣列為英偉達GPU提供了動力,以實現(xiàn)前所未有的AI、高性能計算計算機圖形加速。因此,改進這些算術(shù)電路的設(shè)計對于提升 GPU
    發(fā)表于 12-05 11:05 ?393次閱讀

    ASICGPU,誰才是AI計算的最優(yōu)解?

    電子發(fā)燒友網(wǎng)報道(文/周凱揚)隨著AI計算開始有著風頭蓋過通用計算開始,不少芯片廠商都將其視為下一輪技術(shù)革新。CPU、GPU、FPGA和ASIC
    的頭像 發(fā)表于 12-03 08:31 ?2001次閱讀
    <b class='flag-5'>ASIC</b>和<b class='flag-5'>GPU</b>,誰才是<b class='flag-5'>AI</b><b class='flag-5'>計算</b>的最優(yōu)解?

    大模型算驅(qū)動AI服務(wù)器行業(yè)報告

    AI服務(wù)器按芯片類型可分為CPU+GPU、CPU+FPGA、CPU+ASIC等組合形式,CPU+GPU是目前國內(nèi)的主要選擇(占比91.9%);AI
    發(fā)表于 11-28 09:18 ?225次閱讀
    大模型算驅(qū)動<b class='flag-5'>AI</b>服務(wù)器行業(yè)報告