0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

詳解GPU硬件架構(gòu)及運(yùn)行機(jī)制

sakobpqhz ? 來源:Tim在路上 ? 2024-01-26 09:23 ? 次閱讀

為什么我們總說GPUCPU要強(qiáng)大,既然GPU強(qiáng)大,為什么不能取代CPU呢?

答案就是CPU工作方式和GPU的工作方式截然不同,下面的兩張圖有助于幫助我們理解CPU和GPU的工作方式的不同。

87d71412-bbe7-11ee-8b88-92fbcf53809c.jpg

上圖有幾個重點(diǎn)的元素,也是我們下文重點(diǎn)要闡述的概念,綠色代表的是computational units(可計(jì)算單元) 或者稱之為 cores(核心),橙色代表memories(內(nèi)存) ,黃色代表的是control units(控制單元)。

因此想要理解GPU的底層核心構(gòu)成,就必須明確這幾個元素的作用,下文會逐一講解每個元素的作用。

01.計(jì)算單元(cores)

總的來看,我們可以這樣說:CPU的計(jì)算單元是“大”而“少”的,然而GPU的計(jì)算單元是“小”而“多”的。

這里的大小是指的計(jì)算能力,多少指的是設(shè)備中的數(shù)量。通過觀察上圖,顯然可以看出,計(jì)算單元(綠色的部分),CPU“大少”,GPU“小多”的特點(diǎn)。

CPU的cores 比GPU的cores要更加聰明(smarter),這也是所謂“大”的特點(diǎn)。

在過去的很長時間里,CPU的core計(jì)算能力增長是得益于主頻時鐘最大的頻率增長。

相反,GPU不僅沒有主頻時鐘的提升,而且還經(jīng)歷過主頻下降的情況,因?yàn)镚PU需要適應(yīng)嵌入式應(yīng)用環(huán)境,在這個環(huán)境下對功耗的要求是比較高的,不能容忍超高主頻的存在。

例如英偉達(dá)的Jetson NANO, 安裝在室內(nèi)導(dǎo)航機(jī)器人身上,就是一個很好的嵌入式環(huán)境應(yīng)用示例,安裝在機(jī)器人身上,就意味著使用電池供電,GPU的功耗不可以過高。

CPU比GPU聰明,很大一個原因就是CPU擁有"out-of-order exectutions"(亂序執(zhí)行)功能。

出于優(yōu)化的目的,CPU可以用不同于輸入指令的順序執(zhí)行指令,當(dāng)遇到分支的時候,它可以預(yù)測在不久的將來哪一個指令最有可能被執(zhí)行到(multiple branch prediction 多重分支預(yù)測)。

通過這種方式,它可以預(yù)先準(zhǔn)備好操作數(shù),并且提前執(zhí)行他們(soeculative execution 預(yù)測執(zhí)行),通過上述的幾種方式節(jié)省了程序運(yùn)行時間。

顯然現(xiàn)代CPU擁有如此多的提升性能的機(jī)制,這是比GPU聰明的地方。

相比之下,GPU的core不能做任何類似out-of-order exectutions那樣復(fù)雜的事情。

總的來說,GPU的core只能做一些最簡單的浮點(diǎn)運(yùn)算,例如 multiply-add(MAD)或者 fused multiply-add(FMA)指令。

87ea2430-bbe7-11ee-8b88-92fbcf53809c.jpg

通過上圖可以看出MAD指令實(shí)際是計(jì)算A*B+C的值。

實(shí)際上,現(xiàn)代GPU結(jié)構(gòu),CORE不僅僅可以結(jié)算FMA這樣簡單的運(yùn)算,還可以執(zhí)行更加復(fù)雜的運(yùn)算操作,例如tensor張量(tensor core)或者光線追蹤(ray tracing core)相關(guān)的操作。

87f24fd4-bbe7-11ee-8b88-92fbcf53809c.jpg

張量核心 (tensor cores) 的目的在于服務(wù)張量操作在一些人工智能運(yùn)算場合,光纖追蹤(ray tracing) 旨在服務(wù)超現(xiàn)實(shí)主義(hyper-realistic)實(shí)時渲染的場合。

上文說到,GPU Core最開始只是支持一些簡單的浮點(diǎn)運(yùn)算FMA, 后來經(jīng)過發(fā)展又增加了一些復(fù)雜運(yùn)算的機(jī)制tensor core以及ray trace,但是總體來說GPU的計(jì)算靈活性還是比不上CPU的核心。

值得一提的是,GPU的編程方式是SIMD(Single Instruction Multiple Data)意味著所有Core的計(jì)算操作完全是在相同的時間內(nèi)進(jìn)行的,但是輸入的數(shù)據(jù)有所不同。

顯然,GPU的優(yōu)勢不在于核心的處理能力,而是在于他可以大規(guī)模并行處理數(shù)據(jù)。

GPU中每個核心的作用有點(diǎn)像羅馬帆船上的槳手:鼓手打著節(jié)拍(時鐘),槳手跟著節(jié)拍一同滑動帆船。

SIMT編程模型允許加速運(yùn)行非常多的應(yīng)用,對圖像進(jìn)行縮放就是一個很好的例子。

在這個例子中,每個core對應(yīng)圖像的一個像素點(diǎn),這樣就可以并行的處理每一個像素點(diǎn)的縮放操作,如果這個工作給到CPU來做,需要N的時間才可以做完,但是給到GPU只需要一個時鐘周期就可以完成。

當(dāng)然,這樣做的前提是有足夠的core來覆蓋所有的圖像像素點(diǎn)。這個問題有個顯著的特點(diǎn),就是對一張圖像進(jìn)行縮放操作,各個像素點(diǎn)之間的信息是相互獨(dú)立的,因此可以獨(dú)立的放在不同的core中進(jìn)行并行運(yùn)算。

我們認(rèn)為不同的core操作的信息相互獨(dú)立,是符合SIMT的模型的,使用SIMT來解決這樣的問題非常方便。

但是,也不是所有的問題都是符合SIMT模型的,尤其在異步問題中,在這樣的問題中,不同的core之間要相互交互信息,計(jì)算的結(jié)構(gòu)不規(guī)則,負(fù)載不均衡,這樣的問題交給GPU來處理就會比較復(fù)雜。

02.內(nèi)存memory

88183c30-bbe7-11ee-8b88-92fbcf53809c.jpg

回到這個文章的第一張圖中來,我們接下來會討論GPU和CPU內(nèi)存方面的差別。

CPU的memory系統(tǒng)一般是基于DRAM的,在桌面PC中,一般來說是8G,在服務(wù)器中能達(dá)到數(shù)百(256)Gbyte。

CPU內(nèi)存系統(tǒng)中有個重要的概念就是cache,是用來減少CPU訪問DRAM的時間。cache是一片小的內(nèi)存區(qū)域,但是訪問速度更快,更加靠近處理器核心的內(nèi)存段,用來儲存DRAM中的數(shù)據(jù)副本。

cache一般有一個分級,通常分為三個級別L1,L2,L3 cache,cache離核心越近就越小訪問越快,例如 L1可以是64KB L2就是256KB L3是4MB。

CPU Cache的內(nèi)容不再這里展開講解,感興趣的讀者可以自行查閱資料

從第一張圖可以看到GPU中有一大片橙色的內(nèi)存,名稱為DRAM,這一塊被稱為全局內(nèi)存或者GMEM。

GMEM的內(nèi)存大小要比CPU的DRAM小的多,在最便宜的顯卡中一般只有幾個G的大小,在最好的顯卡中GMEM可以達(dá)到24G。

GMEM的尺寸大小是科學(xué)計(jì)算使用中的主要限制。十年前,顯卡的容量最多也就只有512M,但是,現(xiàn)在已經(jīng)完全克服了這個問題。

關(guān)于cache,從第一張圖中不難推斷,左上角的小橙色塊就是GPU的cache段。然而GPU的緩存機(jī)制和CPU是存在一定的差異的,稍后將會證明這一點(diǎn)。

03.GPU的底層結(jié)構(gòu)

為了充分理解GPU的架構(gòu),讓我們在返回來看下第一張圖,一個顯卡中絕大多數(shù)都是計(jì)算核心core組成的海洋。

在圖像縮放的例子中,core與core之間不需要任何協(xié)作,因?yàn)樗麄兊娜蝿?wù)是完全獨(dú)立的,然而,GPU解決的問題不一定這么簡單,讓我們來舉個例子。

假設(shè)我們需要對一個數(shù)組里的數(shù)進(jìn)行求和,這樣的運(yùn)算屬于reductuin family類型,因?yàn)檫@樣的運(yùn)算試圖將一個序列“reduce”簡化為一個數(shù)。

計(jì)算數(shù)組的元素總和的操作看起來是順序的,我們只需要獲取第一個元素,求和到第二個元素中,獲取結(jié)果,再將結(jié)果求和到第三個元素,以此類推。

881fb5d2-bbe7-11ee-8b88-92fbcf53809c.jpg

令人驚訝的是,一些看起來本質(zhì)是順序的運(yùn)算,其實(shí)可以再并行算法中轉(zhuǎn)化。

假設(shè)一個長度為8的數(shù)組,在第一步中完全可以并行執(zhí)行兩個元素和兩個元素的求和,從而同時獲得四個元素,兩兩相加的結(jié)果,以此類推,通過并行的方式加速數(shù)組求和的運(yùn)算速度。具體的操作如下圖所示:

882e9462-bbe7-11ee-8b88-92fbcf53809c.jpg

如上圖計(jì)算方式,如果是長度為8的數(shù)組兩兩并行求和計(jì)算,那么只需要三次就可以計(jì)算出結(jié)果。

如果是順序計(jì)算需要8次。如果按照兩兩并行相加的算法,N個數(shù)字相加,那么僅需要log2(N)次就可以完成計(jì)算。

從GPU的角度來講,只需要四個core就可以完成長度為8的數(shù)組求和算法,我們將四個core編號為0,1,2,3。

那么第一個時鐘下,兩兩相加的結(jié)果通過0號core計(jì)算,放入了0號core可以訪問到的內(nèi)存中,另外兩兩對分別由1號2號3號core來計(jì)算,第二個個時鐘繼續(xù)按照之前的算法計(jì)算,只需要0號和1號兩個core即可完成。

以此類推,最終的結(jié)果將在第三個時鐘由0號core計(jì)算完成,并儲存在0號core可以訪問到的內(nèi)存中。這樣實(shí)際三次就能完成長度為8的數(shù)組求和計(jì)算。

88339db8-bbe7-11ee-8b88-92fbcf53809c.jpg

如果GPU想要完成上述的推理計(jì)算過程,顯然,多個core之間要可以共享一段內(nèi)存空間以此來完成數(shù)據(jù)之間的交互,需要多個core可以在共享的內(nèi)存空間中完成讀/寫的操作。

我們希望每個Cores都有交互數(shù)據(jù)的能力,但是不幸的是,一個GPU里面可以包含數(shù)以千計(jì)的core,如果使得這些core都可以訪問共享的內(nèi)存段是非常困難和昂貴的。

出于成本的考慮,折中的解決方案是將各類GPU的core分類為多個組,形成多個流處理器(Streaming Multiprocessors )或者簡稱為SMs。

04.GPU架構(gòu)

884732f6-bbe7-11ee-8b88-92fbcf53809c.jpg

上圖的綠色部分意味著Core計(jì)算單元,綠色的塊就是上文談到的Streaming Multiprocessors,理解為Core的集合。

黃色的部分名為RT COREs畫的離SMs非常近。單個SM的圖靈架構(gòu)如下圖所示

886935ea-bbe7-11ee-8b88-92fbcf53809c.jpg

在SM的圖靈結(jié)構(gòu)中,綠色的部分CORE相關(guān)的,我們進(jìn)一步區(qū)分了不同類型的CORE。主要分為INT32,FP32,TENSOR CORES。

1. FP32 Cores,執(zhí)行單進(jìn)度浮點(diǎn)運(yùn)算,在TU102卡中,每個SM由64個FP32核,圖靈102由72個SM因此,F(xiàn)P32 Core的數(shù)量是 72 * 64。

2. FP64 Cores. 實(shí)際上每個SM都包含了2個64位浮點(diǎn)計(jì)算核心FP64 Cores,用來計(jì)算雙精度浮點(diǎn)運(yùn)算,雖然上圖沒有畫出,但是實(shí)際是存在的。

3. Integer Cores,這些core執(zhí)行一些對整數(shù)的操作,例如地址計(jì)算,可以和浮點(diǎn)運(yùn)算同時執(zhí)行指令。在前幾代GPU中,執(zhí)行這些整型操作指令都會使得浮點(diǎn)運(yùn)算的管道停止工作。TU102總共由4608個Integer Cores,每個SM有64個intCores。

4. Tensor Cores,張量core是FP16單元的變種,認(rèn)為是半精度單元,致力于張量積算加速常見的深度學(xué)習(xí)操作。

圖靈張量Core還可以執(zhí)行INT8和INT4精度的操作,用于可以接受量化而且不需要FP16精度的應(yīng)用場景,在TU102中,我們每個SM有8個張量Cores,一共有8 * 72個Tensor Cores。

在大致描述了GPU的執(zhí)行部分之后,讓我們回到上文提出的問題,各個核心之間如何完成彼此的協(xié)作?

在四個SM塊的底部有一個96KB的L1 Cache,用淺藍(lán)色標(biāo)注的。這個cache段是允許各個Core都可以訪問的段,在L1 Cache中每個SM都有一塊專用的共享內(nèi)存。

作為芯片上的L1 cache他的大小是有限的,但它非???,肯定比訪問GMEM快得多。

實(shí)際上L1 CACHE擁有兩個功能,一個是用于SM上Core之間相互共享內(nèi)存,另一個則是普通的cache功能。

當(dāng)Core需要協(xié)同工作,并且彼此交換結(jié)果的時候,編譯器編譯后的指令會將部分結(jié)果儲存在共享內(nèi)存中,以便于不同的core獲取到對應(yīng)數(shù)據(jù)。

當(dāng)用做普通cache功能的時候,當(dāng)core需要訪問GMEM數(shù)據(jù)的時候,首先會在L1中查找,如果沒找到,則回去L2 cache中尋找,如果L2 cache也沒有,則會從GMEM中獲取數(shù)據(jù),L1訪問最快 L2 以及GMEM遞減。

緩存中的數(shù)據(jù)將會持續(xù)存在,除非出現(xiàn)新的數(shù)據(jù)做替換。從這個角度來看,如果Core需要從GMEM中多次訪問數(shù)據(jù),那么編程者應(yīng)該將這塊數(shù)據(jù)放入功能內(nèi)存中,以加快他們的獲取速度。

其實(shí)可以將共享內(nèi)存理解為一段受控制的cache,事實(shí)上L1 cache和共享內(nèi)存是同一塊電路中實(shí)現(xiàn)的。編程者有權(quán)決定L1 的內(nèi)存多少是用作cache多少是用作共享內(nèi)存。

最后,也是比較重要的是,可以儲存各個core的計(jì)算中間結(jié)果,用于各個核心之間共享的內(nèi)存段不僅僅可以是共享內(nèi)存L1,也可以是寄存器,寄存器是離core最近的內(nèi)存段,但是也非常小。

最底層的思想是每個線程都可以擁有一個寄存器來儲存中間結(jié)果,每個寄存器只能由相同的一個線程來訪問,或者由相同的warp或者組的線程訪問。

05.總結(jié)

GPU的基本底層構(gòu)成,主要是以GPU計(jì)算核心 Cores,以及Memory以及控制單元,三大組成要素組成。

Core是計(jì)算的基本單元,既可以用作簡單的浮點(diǎn)運(yùn)算,又可以做一些復(fù)雜的運(yùn)算例如,tensor 或者ray tracing。

多個core之間通訊的方式:

在特定的應(yīng)用場合多個core之間是不需要的通訊的,也就是各干各的(例如 圖像縮放)。但是也有一些例子,多個core之間要相互通訊配合(例如上文談到的數(shù)組求和問題),每個core之間都可以實(shí)現(xiàn)交互數(shù)據(jù)是非常昂貴的,因此提出了SM的概念,SM是多個core的集合,一個SM里面的cores可以通過L1 Cache進(jìn)行交互信息,完成使用GPU處理數(shù)組求和問題的時候,多個核心共享數(shù)據(jù)的功能。

關(guān)于memory,存在全局的內(nèi)存GMEM,但是訪問較慢,Cores當(dāng)需要訪問GMEM的時候會首先訪問L1,L2如果都miss了,那么才會花費(fèi)大代價到GMEM中尋找數(shù)據(jù)。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    19100

    瀏覽量

    228814
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    10804

    瀏覽量

    210828
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4673

    瀏覽量

    128592

原文標(biāo)題:深入理解GPU硬件架構(gòu)及運(yùn)行機(jī)制

文章出處:【微信號:算力基建,微信公眾號:算力基建】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    蘋果宣布iPhone OS 4 多任務(wù)運(yùn)行機(jī)制詳解

    蘋果宣布iPhone OS 4 多任務(wù)運(yùn)行機(jī)制詳解 蘋果今天在公司總部召開發(fā)布會,提前披露了將于今夏發(fā)布的iPhone OS 4操作系統(tǒng)升級新特性。之前傳言中有關(guān)
    發(fā)表于 04-13 08:48 ?878次閱讀

    Arduino為什么只有l(wèi)oop和setup函數(shù),揭開Arduino的神秘面紗--運(yùn)行機(jī)制

    。。。。。。。。。。。。。。。。。。?運(yùn)行機(jī)制是怎么樣??一系列問題。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。然后咱們揭開它神秘的面紗-----首先大家可以用代碼瀏覽神器Source
    發(fā)表于 10-30 17:33

    NVIDIA火熱招聘GPU高性能計(jì)算架構(gòu)

    這邊是NVIDIA HR Allen, 我們目前在上海招聘GPU高性能計(jì)算架構(gòu)師(功能驗(yàn)證)的崗位,有意向的朋友歡迎發(fā)送簡歷到 allelin@nvidia.comWechat
    發(fā)表于 09-01 17:22

    計(jì)算機(jī)操作系統(tǒng)的運(yùn)行機(jī)制和體系結(jié)構(gòu)

    計(jì)算機(jī)操作系統(tǒng)-運(yùn)行機(jī)制、體系結(jié)構(gòu)
    發(fā)表于 07-09 16:52

    ARM架構(gòu)GPU和臺式機(jī)的GPU有什么區(qū)別

    1:移動GPU(指的是ARM處理器集成的GPU)和獨(dú)立的PC的GPU的區(qū)別?除了架構(gòu),就拿視頻解碼來說,為什么ARM的處理器的GPU可以實(shí)現(xiàn)
    發(fā)表于 07-18 08:04

    HSA----CPU+GPU異構(gòu)系統(tǒng)架構(gòu)詳解

    解析HSA----CPU+GPU異構(gòu)系統(tǒng)架構(gòu)
    發(fā)表于 02-03 07:07

    CPU的基本結(jié)構(gòu)和運(yùn)行機(jī)制

    目錄一. CPU的基本結(jié)構(gòu)和運(yùn)行機(jī)制參考《ARM微控制器與嵌入式系統(tǒng)--清華》一. CPU的基本結(jié)構(gòu)和運(yùn)行機(jī)制分析其中的CPU:(ALU、寄存器組、控制單元是必要的,其他非必要)一個完整的CPU:將
    發(fā)表于 11-03 09:22

    MCU總結(jié)結(jié)構(gòu)和程序運(yùn)行機(jī)制的相關(guān)資料分享

    MCU總結(jié)結(jié)構(gòu)和程序運(yùn)行機(jī)制
    發(fā)表于 11-16 08:45

    Linux系統(tǒng)是如何去實(shí)現(xiàn)多用戶運(yùn)行機(jī)制的呢

    什么是Linux系統(tǒng)呢?Linux系統(tǒng)是如何去實(shí)現(xiàn)多用戶運(yùn)行機(jī)制的呢?
    發(fā)表于 12-29 06:40

    Linux系統(tǒng)的fork運(yùn)行機(jī)制分析

    如果其中一個進(jìn)程的輸出結(jié)果是“pid1:1001, pid2:1002”,寫出其他進(jìn)程的輸出結(jié)果(不考慮進(jìn)程執(zhí)行順序)。 明顯這道題的目的是考察linux下fork的執(zhí)行機(jī)制。下面我們通過分析這個題目,談?wù)凩inux下fork的運(yùn)行機(jī)制。
    發(fā)表于 04-26 16:26 ?1146次閱讀
    Linux系統(tǒng)的fork<b class='flag-5'>運(yùn)行機(jī)制</b>分析

    SSL和TLS協(xié)議運(yùn)行機(jī)制的資料詳細(xì)概述

    聯(lián)網(wǎng)的通信安全,建立在SSL/TLS協(xié)議之本文簡要介紹SSL/TLS協(xié)議的運(yùn)行機(jī)制。文章的重點(diǎn)是設(shè)計(jì)思想和運(yùn)行過程,不涉及具體的實(shí)現(xiàn)細(xì)節(jié)。
    發(fā)表于 07-22 08:00 ?2次下載
    SSL和TLS協(xié)議<b class='flag-5'>運(yùn)行機(jī)制</b>的資料詳細(xì)概述

    深入GPU硬件架構(gòu)運(yùn)行機(jī)制(下)

    由于SIMT技術(shù)的引入,導(dǎo)致很多同一個SM內(nèi)的很多Core并不是獨(dú)立的,當(dāng)它們當(dāng)中有部分Core需要訪問到紋理、常量緩存和全局內(nèi)存時,就會導(dǎo)致非常大的卡頓(Stall)。
    的頭像 發(fā)表于 12-19 09:33 ?1903次閱讀

    GPU硬件架構(gòu)運(yùn)行機(jī)制(下)

    由于SIMT技術(shù)的引入,導(dǎo)致很多同一個SM內(nèi)的很多Core并不是獨(dú)立的,當(dāng)它們當(dāng)中有部分Core需要訪問到紋理、常量緩存和全局內(nèi)存時,就會導(dǎo)致非常大的卡頓(Stall)。
    的頭像 發(fā)表于 12-19 14:15 ?2278次閱讀

    php運(yùn)行機(jī)制和原理

    PHP是一種在服務(wù)器端執(zhí)行的腳本語言,它被廣泛用于開發(fā)動態(tài)網(wǎng)站。它的運(yùn)行機(jī)制和原理非常重要,因?yàn)樗鼪Q定了PHP腳本如何被解釋執(zhí)行和與服務(wù)器進(jìn)行交互。 PHP的運(yùn)行機(jī)制 PHP腳本的運(yùn)行機(jī)制涉及到以下
    的頭像 發(fā)表于 12-04 15:28 ?867次閱讀

    揭秘GPU: 高端GPU架構(gòu)設(shè)計(jì)的挑戰(zhàn)

    在計(jì)算領(lǐng)域,GPU(圖形處理單元)一直是性能飛躍的代表。眾所周知,高端GPU的設(shè)計(jì)充滿了挑戰(zhàn)。GPU架構(gòu)創(chuàng)新,為軟件承接大模型訓(xùn)練和推理場景的人工智能計(jì)算提供了持續(xù)提升的
    的頭像 發(fā)表于 12-21 08:28 ?829次閱讀
    揭秘<b class='flag-5'>GPU</b>: 高端<b class='flag-5'>GPU</b><b class='flag-5'>架構(gòu)</b>設(shè)計(jì)的挑戰(zhàn)