近期外網(wǎng)爆出傳聞,AMD下一代Zen 4核心的EPYC Genoa處理器可能會(huì)配備HBM內(nèi)容,以求與英特爾的下一代服務(wù)器CPU Xeon Sapphire Rapids爭雄。巧合的是,近日Linux內(nèi)核補(bǔ)丁中也透露了消息,AMD下一代基于CDNA 2核心的Instinct MI200 GPU也將用到HBM2e,顯存更是高達(dá)128GB。這意味著AMD很可能會(huì)在服務(wù)器市場全面擁抱HBM。
已與消費(fèi)顯卡市場無緣的HBM
HBM作為一種高帶寬存儲(chǔ)器,其實(shí)是由AMD最先投入研發(fā)的高性能DRAM。為了實(shí)現(xiàn)這一愿景,AMD找來了有3D堆疊工藝生產(chǎn)經(jīng)驗(yàn)的SK海力士,并借助互聯(lián)和封裝廠商的幫助,聯(lián)合開發(fā)出了HBM存儲(chǔ)器。
AMD也是首個(gè)將其引入GPU市場的廠商,并應(yīng)用在其Fiji GPU上。隨后2016年,三星率先開始了HBM2的量產(chǎn),AMD被英偉達(dá)搶了風(fēng)頭,后者率先將這一新標(biāo)準(zhǔn)的存儲(chǔ)器應(yīng)用在其Tesla P100加速卡上。
當(dāng)時(shí)HBM的優(yōu)缺點(diǎn)都十分明顯了,從一開始以來的帶寬優(yōu)勢正在被GDDR6迎頭趕上,設(shè)計(jì)難度和成本又是一道難以邁過的坎。雖然高端顯卡上這些成本并不占大頭,但中低端顯卡用到HBM就比較肉疼了。但AMD并沒有因此放棄HBM2,而是在Vega顯卡上繼續(xù)引入了HBM2。
不過,這可能也就是我們最后一次在消費(fèi)級GPU上見到HBM了,AMD在之后的RDNA架構(gòu)上再也沒有使用HBM,僅僅只有基于CDNA架構(gòu)且用于加速器的GPU上還在使用HBM。
為什么是服務(wù)器市場?
HBM是如何在服務(wù)器市場扎根的呢?這是因?yàn)镠BM最適合的應(yīng)用場景之一就是功率受限又需要最大帶寬的環(huán)境,完美達(dá)到HPC集群中進(jìn)行人工智能計(jì)算,或是大型密集計(jì)算的數(shù)據(jù)中心的要求。
這也就是這些包含數(shù)據(jù)中心業(yè)務(wù)的公司持續(xù)使用HBM的原因,英偉達(dá)在性能強(qiáng)大的服務(wù)器GPU A100中依然在使用HBM2和HBM2e,甚至可能會(huì)在下一代Hopper結(jié)構(gòu)繼續(xù)沿用下去。據(jù)傳,英特爾尚未面世的Xe-HP和Xe-HPC GPU也將使用HBM。
不過這兩家廠商的消費(fèi)級GPU都不約而同的避過了HBM,選擇了GDDR6和GDDR6X,可想而知他們都不想走AMD的彎路。
至于AMD在CPU上率先使用HBM也并非空穴來風(fēng),在AMD去年公布的一份專利中,就在芯片設(shè)計(jì)上出現(xiàn)了HBM。英特爾推出的競品Xeon Sapphire Rapids服務(wù)器CPU也正式宣布將使用HBM,不過量產(chǎn)要等到2023年。這些可以看出HBM在服務(wù)器市場有多“香”,他們都開始將HBM向CPU上發(fā)展。
下一代HBM
雖然制定標(biāo)準(zhǔn)的JEDEC尚未推出HBM3的相關(guān)規(guī)范,但一直在研究下一代HBM的SK海力士在今年6月透露了HBM3的最新情報(bào),HBM將迎來進(jìn)一步的性能提升。
HBM2E的帶寬可達(dá)460GB/s,I/O速率可達(dá)3.6Gbps,而HBM3的帶寬可以達(dá)到665GB/s以上,I/O速率超過5.2Gbps。這還是只是速率的下限而已,要知道SiFive與OpenFive今年流片的5nm RISC-V SoC也加入了HBM3的IP,最高支持的數(shù)據(jù)傳輸率達(dá)到7.2Gbps。
SK海力士能做到如此高的性能提升,很可能得益于去年與Xperi簽訂的專利許可協(xié)議。這些協(xié)議中包含了DBI Ultra 2.5D/3D互聯(lián)技術(shù),可以用于3DS、HBM2、HBM3及后續(xù)DRAM產(chǎn)品的創(chuàng)新開發(fā)。傳統(tǒng)的銅柱互聯(lián)只能做到每平方毫米625個(gè)互聯(lián),而DBI Ultra可以在同樣的面積下做到10萬個(gè)互聯(lián)。
結(jié)語
從JEDEC2018年宣布HBM2E標(biāo)準(zhǔn)以來,HBM已經(jīng)近3年沒有更新了。三星更是在今年2月宣布開發(fā)帶有人工智能引擎的HBM-PIM,未來HBM3是否能在服務(wù)器領(lǐng)域繼續(xù)稱雄,相信當(dāng)前幾大廠商規(guī)劃的服務(wù)器產(chǎn)品中HBM占比已經(jīng)給出了答案。
已與消費(fèi)顯卡市場無緣的HBM
HBM作為一種高帶寬存儲(chǔ)器,其實(shí)是由AMD最先投入研發(fā)的高性能DRAM。為了實(shí)現(xiàn)這一愿景,AMD找來了有3D堆疊工藝生產(chǎn)經(jīng)驗(yàn)的SK海力士,并借助互聯(lián)和封裝廠商的幫助,聯(lián)合開發(fā)出了HBM存儲(chǔ)器。
Fiji GPU / AMD
AMD也是首個(gè)將其引入GPU市場的廠商,并應(yīng)用在其Fiji GPU上。隨后2016年,三星率先開始了HBM2的量產(chǎn),AMD被英偉達(dá)搶了風(fēng)頭,后者率先將這一新標(biāo)準(zhǔn)的存儲(chǔ)器應(yīng)用在其Tesla P100加速卡上。
當(dāng)時(shí)HBM的優(yōu)缺點(diǎn)都十分明顯了,從一開始以來的帶寬優(yōu)勢正在被GDDR6迎頭趕上,設(shè)計(jì)難度和成本又是一道難以邁過的坎。雖然高端顯卡上這些成本并不占大頭,但中低端顯卡用到HBM就比較肉疼了。但AMD并沒有因此放棄HBM2,而是在Vega顯卡上繼續(xù)引入了HBM2。
不過,這可能也就是我們最后一次在消費(fèi)級GPU上見到HBM了,AMD在之后的RDNA架構(gòu)上再也沒有使用HBM,僅僅只有基于CDNA架構(gòu)且用于加速器的GPU上還在使用HBM。
為什么是服務(wù)器市場?
HBM是如何在服務(wù)器市場扎根的呢?這是因?yàn)镠BM最適合的應(yīng)用場景之一就是功率受限又需要最大帶寬的環(huán)境,完美達(dá)到HPC集群中進(jìn)行人工智能計(jì)算,或是大型密集計(jì)算的數(shù)據(jù)中心的要求。
A100不同規(guī)格的顯存對比 / Nvidia
這也就是這些包含數(shù)據(jù)中心業(yè)務(wù)的公司持續(xù)使用HBM的原因,英偉達(dá)在性能強(qiáng)大的服務(wù)器GPU A100中依然在使用HBM2和HBM2e,甚至可能會(huì)在下一代Hopper結(jié)構(gòu)繼續(xù)沿用下去。據(jù)傳,英特爾尚未面世的Xe-HP和Xe-HPC GPU也將使用HBM。
不過這兩家廠商的消費(fèi)級GPU都不約而同的避過了HBM,選擇了GDDR6和GDDR6X,可想而知他們都不想走AMD的彎路。
AMD專利 / AMD
至于AMD在CPU上率先使用HBM也并非空穴來風(fēng),在AMD去年公布的一份專利中,就在芯片設(shè)計(jì)上出現(xiàn)了HBM。英特爾推出的競品Xeon Sapphire Rapids服務(wù)器CPU也正式宣布將使用HBM,不過量產(chǎn)要等到2023年。這些可以看出HBM在服務(wù)器市場有多“香”,他們都開始將HBM向CPU上發(fā)展。
下一代HBM
雖然制定標(biāo)準(zhǔn)的JEDEC尚未推出HBM3的相關(guān)規(guī)范,但一直在研究下一代HBM的SK海力士在今年6月透露了HBM3的最新情報(bào),HBM將迎來進(jìn)一步的性能提升。
HBM2E和HBM3性能對比 / SK海力士
HBM2E的帶寬可達(dá)460GB/s,I/O速率可達(dá)3.6Gbps,而HBM3的帶寬可以達(dá)到665GB/s以上,I/O速率超過5.2Gbps。這還是只是速率的下限而已,要知道SiFive與OpenFive今年流片的5nm RISC-V SoC也加入了HBM3的IP,最高支持的數(shù)據(jù)傳輸率達(dá)到7.2Gbps。
SK海力士能做到如此高的性能提升,很可能得益于去年與Xperi簽訂的專利許可協(xié)議。這些協(xié)議中包含了DBI Ultra 2.5D/3D互聯(lián)技術(shù),可以用于3DS、HBM2、HBM3及后續(xù)DRAM產(chǎn)品的創(chuàng)新開發(fā)。傳統(tǒng)的銅柱互聯(lián)只能做到每平方毫米625個(gè)互聯(lián),而DBI Ultra可以在同樣的面積下做到10萬個(gè)互聯(lián)。
結(jié)語
從JEDEC2018年宣布HBM2E標(biāo)準(zhǔn)以來,HBM已經(jīng)近3年沒有更新了。三星更是在今年2月宣布開發(fā)帶有人工智能引擎的HBM-PIM,未來HBM3是否能在服務(wù)器領(lǐng)域繼續(xù)稱雄,相信當(dāng)前幾大廠商規(guī)劃的服務(wù)器產(chǎn)品中HBM占比已經(jīng)給出了答案。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。
舉報(bào)投訴
-
amd
+關(guān)注
關(guān)注
25文章
5421瀏覽量
133807 -
cpu
+關(guān)注
關(guān)注
68文章
10804瀏覽量
210833 -
gpu
+關(guān)注
關(guān)注
28文章
4673瀏覽量
128592
發(fā)布評論請先 登錄
相關(guān)推薦
AMD與NVIDIA GPU優(yōu)缺點(diǎn)
在圖形處理單元(GPU)市場,AMD和NVIDIA是兩大主要的競爭者,它們各自推出的產(chǎn)品在性能、功耗、價(jià)格等方面都有著不同的特點(diǎn)和優(yōu)勢。 一、性能 GPU的性能是用戶最關(guān)心的指標(biāo)之一。在高端市場
CPU渲染和GPU渲染優(yōu)劣分析
使用計(jì)算機(jī)進(jìn)行渲染時(shí),有兩種流行的系統(tǒng):基于中央處理單元(CPU)或基于圖形處理單元(GPU)。CPU渲染利用計(jì)算機(jī)的CPU來執(zhí)行場景并將其
X-Silicon發(fā)布RISC-V新架構(gòu) 實(shí)現(xiàn)CPU/GPU一體化
X-Silicon 的芯片與其他架構(gòu)不同,其設(shè)計(jì)將 CPU 和 GPU 的功能整合到單核架構(gòu)中。這與英特爾和 AMD 的典型設(shè)計(jì)不同,前者有獨(dú)立的
發(fā)表于 04-08 11:34
?526次閱讀
RISC-V芯片新突破:CPU與GPU一體化核心設(shè)計(jì)
X-Silicon 的芯片與其他架構(gòu)不同,其設(shè)計(jì)將 CPU 和 GPU 的功能結(jié)合到單核架構(gòu)中。這與 Intel 和 AMD 的典型設(shè)計(jì)不同,后者有獨(dú)立的
發(fā)表于 04-07 10:41
?642次閱讀
FPGA在深度學(xué)習(xí)應(yīng)用中或將取代GPU
業(yè)可行性方面考慮,自動(dòng)駕駛汽車等應(yīng)用可能需要多達(dá) 7-10 個(gè) GPU(其中大多數(shù)會(huì)在不到四年的時(shí)間內(nèi)失效),對于大多數(shù)購車者來說,智能或自動(dòng)駕駛汽車的成本將變得不切實(shí)際。”
機(jī)器人、醫(yī)療保健和安全
發(fā)表于 03-21 15:19
四川長虹回應(yīng)幫華為代工 HBM芯片備受關(guān)注
的CPU/GPU內(nèi)存芯片因?yàn)锳I而全面爆發(fā),多家存儲(chǔ)企業(yè)的產(chǎn)能都已經(jīng)跟不上。HBM英文全稱High Bandwidth Memory,翻譯過來即是高帶寬內(nèi)存,
英偉達(dá)B100 GPU架構(gòu)披露,B200或配備288GB顯存
XpeaGPU透露,B100 GPU將配備兩枚基于此技術(shù)的芯片,與此同時(shí),還將連通多達(dá)8個(gè)HBM3e顯存堆棧,總?cè)萘扛哌_(dá)192GB。AMD同樣已有提供同量級的產(chǎn)品,并且在Instinc
Nvidia與AMD新芯片,突破PCIe瓶頸
AMD 和 Nvidia 的 GPU 都依賴 PCI 總線與 CPU 進(jìn)行通信。CPU 和 GPU 有兩個(gè)不同的內(nèi)存域,數(shù)據(jù)必須通過 PCI
AMD Instinct MI300新版將采用HBM3e內(nèi)存,競爭英偉達(dá)B100
AMD于去年宣布旗下兩款I(lǐng)nstinct MI300加速器,包括基于GPU的MI300X以及基于APU架構(gòu)的MI300A, both配備192GB/128GB的HBM3內(nèi)存,還流傳著一款純粹的
gpu是什么和cpu的區(qū)別
GPU和CPU是兩種常見的計(jì)算機(jī)處理器,它們在結(jié)構(gòu)和功能上有很大的區(qū)別。在這篇文章中,我們將探討GPU和CPU的區(qū)別,并詳細(xì)介紹它們的原理、
AMD將推新GPU,效能媲美英偉達(dá)RTX 4080
據(jù)悉,AMD正努力研制新品級GPU,性能堪比英偉達(dá)的RTX 4080,而售價(jià)卻只有后者的一半。據(jù)多個(gè)在線社區(qū)反映,AMD即將發(fā)布的Radeon RX 8000系列GPU效能與NVIDI
為什么GPU比CPU更快?
大規(guī)模數(shù)據(jù)集時(shí)比CPU更快的根本原因。內(nèi)存帶寬:GPU的內(nèi)存帶寬比CPU高得多。內(nèi)存帶寬是指數(shù)據(jù)在內(nèi)存之間傳輸?shù)乃俣取?b class='flag-5'>GPU可以更快地將數(shù)據(jù)
英偉達(dá)聯(lián)手SK海力士,嘗試將HBM內(nèi)存3D堆疊到GPU核心上
hbm spot目前位于cpu或gpu旁邊的中間層,使用1024位接口連接邏輯芯片。sk hynix制定了將
CPU、GPU和內(nèi)存知識(shí)科普
本文內(nèi)容包括CPU、內(nèi)存和GPU知識(shí),本期重點(diǎn)更新GPU和CPU部分知識(shí)。比如:GPU更新包括架構(gòu)演進(jìn),最新產(chǎn)品A100、選型策略、架構(gòu)分析
評論