0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GPU Microarch學(xué)習(xí)筆記

處理器與AI芯片 ? 來源:處理器與AI芯片 ? 2023-08-14 14:39 ? 次閱讀

Warp

GPU的線程從thread grid 到threadblock,一個thread block在CUDA Core上執(zhí)行時,會分成warp執(zhí)行,warp的顆粒度是32個線程。比如一個thread block可能有1024個線程,那么就會分成32個warp執(zhí)行。

ddb374e6-390d-11ee-9e74-dac502259ad0.png

上圖的CTA(cooperative thread arrays)即為thread block。

Warp內(nèi)的32個線程是以lock-step的方式鎖步執(zhí)行,也就是在沒有遇到分支指令的情況下,如果執(zhí)行,那么執(zhí)行的都是相同的指令。通過這種方式32個線程可以共享pc,源寄存器ID和目標(biāo)寄存器ID。

雖然warp是以32的顆粒度,但是具體在GPU內(nèi)部執(zhí)行時,也可能是以16的顆粒度,分兩次執(zhí)行,比如早期的fermi架構(gòu)。

dddfa098-390d-11ee-9e74-dac502259ad0.png

如上圖所示,兩個warp scheduler,每個warp每次只能在16個CUDA core上執(zhí)行。

后續(xù)的Pascal GPU架構(gòu) CUDA core增加到了32個,每個周期都能執(zhí)行一個warp。

de11a43a-390d-11ee-9e74-dac502259ad0.png

寄存器

GPU的寄存器數(shù)量是影響劃分CUDA thread block的數(shù)量的原因之一,如下圖所示[1]。

de51f210-390d-11ee-9e74-dac502259ad0.png

雖然內(nèi)部執(zhí)行是按照warp執(zhí)行的,按照調(diào)度順序和ready進行調(diào)度。但是寄存器的分配是靜態(tài)的按照thread number分配的,而不是warp。在warp執(zhí)行時,32個線程,每個線程讀取源寄存器,寫入目標(biāo)寄存器。假設(shè)每個寄存器4B,那么每次32個線程讀取128B。

因而128B也就是GPU L1 Cache Cacheline的大小。不同于CPU,每一級的cache都要維護MOSEI的一致性,對于GPU的thread來說,私有memory不需要共享,因此對于local memory可以write back。而全局共享memory則可以write evict。

CPU的寄存器,在編譯器編譯時,會根據(jù)寄存器的live time進行優(yōu)化,而且在CPU內(nèi)部執(zhí)行時,進行重命名,在有限的寄存器數(shù)量上盡量地解決依賴問題。

GPU只在編譯時優(yōu)化,盡量減少對memory的使用,在內(nèi)部執(zhí)行時,如果針對每個warp都增加一個寄存器重命名單元,設(shè)計復(fù)雜。因此GPU每個線程需要的寄存器就是它編譯時需要的寄存器上限(寄存器上限也可以通過編譯器控制)。這就導(dǎo)致了實際GPU內(nèi)部執(zhí)行時對寄存器使用數(shù)量的波動。如下圖[2]所示,因此也有很多文章研究如何優(yōu)化寄存器的使用。

de8424f6-390d-11ee-9e74-dac502259ad0.png

在編譯時,nvcc可以通過指定--maxrregcount指定寄存器的數(shù)量,但是過多的寄存器會因為固定的寄存器資源而導(dǎo)致thread數(shù)量變少,過少的寄存器也會導(dǎo)致需要頻繁的訪問memory,因此也需要折衷。

deadf132-390d-11ee-9e74-dac502259ad0.png

WARP Divergence

之前討論warp時說如果32個線程,沒有遇到分支,那么每個線程都執(zhí)行同一條指令,但是如果存在分支呢?

GPU沒有CPU的分支預(yù)測,使用active mask和predicate register來構(gòu)建token stack來處理遇到分支時的問題。

GPGPU-sim按照下圖[3]模擬的token stack,其中的

def25c8c-390d-11ee-9e74-dac502259ad0.png

另一種可能的token stack則是按照如下的方式構(gòu)建,結(jié)合了指令,predicateregister和token stack。

df2592c8-390d-11ee-9e74-dac502259ad0.png

上圖[4]中的(b)即為編譯出的匯編指令,SSY 0xF0即為push stack,if else分支指令結(jié)束重聚的指令地址為0xF0。每個warp會有當(dāng)前的active pc寄存器和active mask寄存器。我們假設(shè)一個warp內(nèi)有8個thread,在SSY0xF0指令執(zhí)行時,會將active mask 壓棧,壓棧的內(nèi)容包括Fig1中的entry type SSY,active mask和re-convergence pc,也就是0xF0(從SSY 0xF0指令可以獲得).

在分支指令@PO BRA 0xB8執(zhí)行時,會將DIV(divergence),activemask(0xF0,這個并非pc,而是active mask,當(dāng)前warp的每個thread的predicateregister拼接而成,8bit 每個bit表示一個thread是否滿足if條件)和 0xB8(if語句塊內(nèi)的第一條指令的地址)壓棧。

然后gpu會默認(rèn)執(zhí)行else分支(因為if需要跳轉(zhuǎn),else直接順序執(zhí)行),執(zhí)行else分支時,需要對active mask取反,只執(zhí)行不滿足if條件的那些thread。

Else分支的最后一條匯編指令末尾會增加.S flag用于標(biāo)志popstack,此時pop指令會將active mask出棧,更新到active mask寄存器和active pc中,然后執(zhí)行if 分支,直到執(zhí)行完畢if內(nèi)的最后一條指令,對應(yīng)地址0xE8,此時再次出棧。

將當(dāng)前active pc更新為0xF0,activemask更新為0xFF,此時if else分支執(zhí)行完畢,回到重聚點,所有線程繼續(xù)lock-step鎖步執(zhí)行。

這里只假設(shè)一個if else,但是實際上可能存在if else的嵌套,因此第一步SSY 0xF0,可以理解成上下文切換時的先保存當(dāng)前的activemask 0xFF和重聚點的指令地址0xF0。

上述的方案與GPGPU-sim中的架構(gòu)類似,除了在指令中顯式的增加了壓棧出棧,GPGPU-sim處理每一個分支都需要壓棧if else兩條分支,占用兩項,而方案2)中每次除了保存當(dāng)前active mask外,只需壓棧一項。






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 寄存器
    +關(guān)注

    關(guān)注

    31

    文章

    5253

    瀏覽量

    119205
  • 編譯器
    +關(guān)注

    關(guān)注

    1

    文章

    1602

    瀏覽量

    48896
  • CUDA
    +關(guān)注

    關(guān)注

    0

    文章

    121

    瀏覽量

    13546
  • cache技術(shù)
    +關(guān)注

    關(guān)注

    0

    文章

    41

    瀏覽量

    1033
  • GPU芯片
    +關(guān)注

    關(guān)注

    1

    文章

    303

    瀏覽量

    5747

原文標(biāo)題:GPU Microarch 學(xué)習(xí)筆記【1】

文章出處:【微信號:處理器與AI芯片,微信公眾號:處理器與AI芯片】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    PADS應(yīng)用學(xué)習(xí)筆記

    本內(nèi)容提供了PADS應(yīng)用學(xué)習(xí)筆記,PADS2007學(xué)習(xí)及Power PCb使用經(jīng)驗
    發(fā)表于 11-24 10:42 ?1.1w次閱讀

    FPGA在深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈?b class='flag-5'>GPU

    、筆記本電腦或機架式服務(wù)器上訓(xùn)練神經(jīng)網(wǎng)絡(luò)時,這不是什么大問題。但是,許多部署深度學(xué)習(xí)模型的環(huán)境對 GPU 并不友好,比如自動駕駛汽車、工廠、機器人和許多智慧城市環(huán)境,在這些環(huán)境中硬件必須忍受熱、灰塵、濕度
    發(fā)表于 03-21 15:19

    Allegro學(xué)習(xí)筆記

    Allegro學(xué)習(xí)筆記 不收積分,需要的看下
    發(fā)表于 11-23 17:41 ?0次下載

    模擬電路學(xué)習(xí)筆記

    模擬電子的相關(guān)知識學(xué)習(xí)教材資料——模擬電路學(xué)習(xí)筆記
    發(fā)表于 09-20 16:10 ?0次下載

    PADS_2007學(xué)習(xí)筆記

    PADS_2007學(xué)習(xí)筆記
    發(fā)表于 01-16 13:54 ?18次下載

    Ansoft學(xué)習(xí)筆記

    ansoft學(xué)習(xí)筆記與常見問題
    發(fā)表于 03-23 10:24 ?0次下載

    Java設(shè)計模式學(xué)習(xí)筆記

    Java設(shè)計模式學(xué)習(xí)筆記
    發(fā)表于 09-08 10:15 ?5次下載
    Java設(shè)計模式<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>筆記</b>

    ARM學(xué)習(xí)筆記

    ARM學(xué)習(xí)筆記
    發(fā)表于 10-13 14:28 ?3次下載
    ARM<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>筆記</b>

    Altera FPGA CPLD學(xué)習(xí)筆記

    Altera FPGA CPLD學(xué)習(xí)筆記(肇慶理士電源技術(shù)有限)-Altera FPGA CPLD學(xué)習(xí)筆記? ? ? ? ? ? ? ? ?
    發(fā)表于 09-18 10:54 ?82次下載
    Altera FPGA CPLD<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>筆記</b>

    學(xué)習(xí)筆記】單片機匯編學(xué)習(xí)

    學(xué)習(xí)筆記】單片機匯編學(xué)習(xí)
    發(fā)表于 11-14 18:21 ?12次下載
    【<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>筆記</b>】單片機匯編<b class='flag-5'>學(xué)習(xí)</b>

    使用外部GPU在Linux筆記本上加速機器學(xué)習(xí)

      隨著 Intel Thunderbolt 3 在筆記本電腦中的引入,您現(xiàn)在可以使用外部 GPU ( e GPU )外殼來使用專用的 GPU 來進行游戲、制作和數(shù)據(jù)科學(xué)。霹靂 3e
    的頭像 發(fā)表于 04-28 14:16 ?2031次閱讀
    使用外部<b class='flag-5'>GPU</b>在Linux<b class='flag-5'>筆記</b>本上加速機器<b class='flag-5'>學(xué)習(xí)</b>

    GPU 引領(lǐng)的深度學(xué)習(xí)

    GPU 引領(lǐng)的深度學(xué)習(xí)
    的頭像 發(fā)表于 01-04 11:17 ?643次閱讀

    Sentaurus TCAD學(xué)習(xí)筆記

    半導(dǎo)體仿真Sentaurus TCAD 學(xué)習(xí)筆記,僅供學(xué)習(xí)
    發(fā)表于 08-07 14:54 ?4次下載

    Allegro學(xué)習(xí)筆記.zip

    Allegro學(xué)習(xí)筆記
    發(fā)表于 12-30 09:19 ?6次下載

    GPU在深度學(xué)習(xí)中的應(yīng)用與優(yōu)勢

    人工智能的飛速發(fā)展,深度學(xué)習(xí)作為其重要分支,正在推動著諸多領(lǐng)域的創(chuàng)新。在這個過程中,GPU扮演著不可或缺的角色。就像超級英雄電影中的主角一樣,GPU在深度學(xué)習(xí)中擁有舉足輕重的地位。那么
    的頭像 發(fā)表于 12-06 08:27 ?1090次閱讀
    <b class='flag-5'>GPU</b>在深度<b class='flag-5'>學(xué)習(xí)</b>中的應(yīng)用與優(yōu)勢