在第七屆云計(jì)算大會的PMC技術(shù)專場上演講嘉賓連續(xù)進(jìn)行了七場技術(shù)演講,其中,PMC數(shù)據(jù)中心存儲架構(gòu)師張冬沒有過多談?wù)撌袌龊托袠I(yè)問題,而是從底層技術(shù)出發(fā),對OpenPowerCAPI進(jìn)行了分析和闡述,為我們介紹了CAPI為什么能這么快。
之前,POWER CPU只是IBM在做小型機(jī)的時候使用,OpenPOWER開放后,成立了OpenPower基金會,基金會大部分成員都非常專注于CAPI(相干加速器處理器接口)上的利用,比如將外置的網(wǎng)絡(luò)、GPU、閃存等設(shè)備通過CAPI直接與CPU相連接,并在此基礎(chǔ)上根據(jù)不同的主流應(yīng)用場景進(jìn)行開放的、定制化的系統(tǒng)設(shè)計(jì),PMC除了關(guān)注這些外,還關(guān)注CAPI與NVMe進(jìn)行協(xié)作的問題。
傳統(tǒng)架構(gòu)的缺點(diǎn)和瓶頸
現(xiàn)在無論是2路、4路、8路還是32路服務(wù)器,他們架構(gòu)中的CPU之間的互聯(lián)有的是直聯(lián),有的通過NC(NC就類似以太網(wǎng)絡(luò)里面的網(wǎng)橋)。核心之間要傳輸數(shù)據(jù)方式中,最高效的是共享內(nèi)存,代碼里寫死。最低效的方法就是走網(wǎng)絡(luò),封裝一堆的包出去,發(fā)送一個數(shù)據(jù)給遠(yuǎn)端的某個線程,調(diào)用一堆接口,走到協(xié)議棧,再到設(shè)備驅(qū)動,然后到網(wǎng)絡(luò),接著收包解析,這個過程非常慢。所以超級計(jì)算機(jī)沒法做到CPU之間進(jìn)行高速網(wǎng)絡(luò)共享內(nèi)存因?yàn)槌杀咎?,沒法將幾萬個CPU連接起來,只能走網(wǎng)絡(luò)了,這也是松耦合系統(tǒng)的一個妥協(xié)。
沒有CAPI的FPGA為什么也不太行
面對現(xiàn)在大數(shù)據(jù)分析、模式匹配、熱點(diǎn)識別等,要求非常大的計(jì)算量,傳統(tǒng)CPU出現(xiàn)瓶頸。普通的CPU其實(shí)也能計(jì)算,但是計(jì)算速度太慢,比如,只有64位寬來處理1GB數(shù)據(jù),那便需要循環(huán)拆分N次才能算完,普通的CPU無法迅速處理這么大的運(yùn)算量。
在多路CPU系統(tǒng)中,線程看到的都是單一的虛擬地址空間,這個虛擬地址空間會被操作系統(tǒng)映射到真實(shí)的物理空間里,但是所有的CPU看到都是同一份物理地址空間。
所有CPU看到單一物理地址空間;
所有Threads看到單一虛擬地址空間;
PCIE物理地址空間映射到CPU物理地址空間;
CPU物理地址空間也映射到PCIE物理地址空間。
有人想到硬件加速,做法就是把某個專業(yè)計(jì)算在電路層面展開,展開成更寬的位寬,更多的并行計(jì)算單元,去除一些不必要的緩存優(yōu)化和流水線優(yōu)化等,其實(shí)這就是專用運(yùn)算芯片所做的,F(xiàn)PGA(Field-ProgrammableGate Array,即現(xiàn)場可編程門陣列)是現(xiàn)場可編程的專用芯片上述就是所謂的硬加速。
在CAPI之前的FPGA怎么接入系統(tǒng)使用的呢?它是把FPGA做到一塊PCIe卡里,F(xiàn)PGA通過CPU的PCIe控制器訪問到主機(jī)內(nèi)存空間。PCIe和CPU各自有各自的地址空間,CPU不能直接訪問PCIe的地址,要先訪問自己的地址,PCIE物理地址空間映射到CPU物理地址空間,反之CPU物理地址空間也需要映射到PCIE物理地址空間,這是個很費(fèi)勁的過程。
在CAPI之前的FPGA怎么接入系統(tǒng)使用的呢?它是把FPGA做到一塊PCIe卡里,F(xiàn)PGA通過CPU的PCIe控制器訪問到主機(jī)內(nèi)存空間。PCIe和CPU各自有各自的地址空間,CPU不能直接訪問PCIe的地址,要先訪問自己的地址,PCIE物理地址空間映射到CPU物理地址空間,反之CPU物理地址空間也需要映射到PCIE物理地址空間,這是個很費(fèi)勁的過程。
數(shù)據(jù)出了ALU,面對復(fù)雜的路由網(wǎng)絡(luò),目的地址為內(nèi)存地址,但是其相對外部網(wǎng)絡(luò)的復(fù)雜性在于,目標(biāo)的位置是不固定的,還可能有多份拷貝。Need Coherency!硬件透明搞定Cache Coherency。CC不負(fù)責(zé)多線程并發(fā)訪問cache line時的互斥,互斥需要程序顯式發(fā)出lock,底層硬件會鎖住總線訪問周期。
如圖所示是個四核CPU,每個CPU內(nèi)部還有很多東西,每一個CPU的每個核心都有各自的緩存控制器,三級緩存控制器,每個CPU還包含內(nèi)存控制器,PCIe控制器,QPI控制器(互聯(lián)CPU相關(guān)),還有緩存一致性的控制器,他們?nèi)冀尤胍粋€高速的總線里面。多個線程看到的數(shù)據(jù)應(yīng)該是時刻一致的,需要廣播許多信息,這就是CacheCoherency,Cache Coherency Agent 負(fù)責(zé)把消息推送出去以及接受其他CPU發(fā)出的探尋。
多CPU之間廣播量非常大,所以需要一個目錄來記錄本地的核心里面都有哪些緩存地址被緩存下來了。其他的CPU如果發(fā)廣播來探尋,本地直接把目錄查一下,如果沒有命中緩存就直接不再往后端核心緩存控制器發(fā)消息,這樣可以提升性能。所以說CC(Cache Coherency)很重要的,要確保線程看到同樣的東西,同一個時刻,這叫實(shí)時一致性,且不允許異步。但是它不負(fù)責(zé)兩個線程,如果互相都在寫這份數(shù)據(jù),會出現(xiàn)相互覆蓋,這要靠(CacheConsistancy)軟件解決。PCIe寫內(nèi)存也需要做CC(Cache Coherency),寫入數(shù)據(jù)到某一地址,這個地址在其他的CPU緩存里,要把它作廢掉。
在把FPGA做在一張PCIe卡上,PCIe卡總線接到CPU的情況下,PCIe要做哪些工作呢?
PCIe設(shè)備與CPU交互
BusDriver將PCIE設(shè)備地址空間映射到CPU物理地址空間并將PCIE地址空間寫入PCIE設(shè)備寄存器;
HostDriver讀出PCIE設(shè)備寄存器獲取該設(shè)備對應(yīng)的PCIE物理地址空間并ioremap()到內(nèi)核虛擬地址空間;
HostDriver 申請DMA緩存并向PCIE設(shè)備映射的虛擬地址空間寫入控制字、基地址等,這些信息便被寫入設(shè)備寄存器,從而觸發(fā)PCIE設(shè)備根據(jù)基地址從主存DMA拿到需要的指令和數(shù)據(jù)后進(jìn)行處理;
PCIE設(shè)備對主存DMA時,RC自動執(zhí)行Probe操作以保證Cache Coherency。
按照上面的過程走下來,缺點(diǎn)非常明顯:
首先執(zhí)行路徑長而且全軟件參與:應(yīng)用call、傳輸協(xié)議棧、Host驅(qū)動、PCIe設(shè)備、DMA、中斷服務(wù)、Host驅(qū)動、傳輸協(xié)議棧(如有)、應(yīng)用buffer。
再就是PCIE設(shè)備和CPU看到不同的物理地址空間,RC進(jìn)行映射和轉(zhuǎn)換。驅(qū)動程序申請內(nèi)存之后得用pci_map_single()映射成PCIE物理地址。雖然對于諸如Intel體系下,兩個空間映射成一樣的地址,但是仍需要在軟件里做映射,這對性能有一定的影響。
另外,用戶態(tài)程序必須主動從內(nèi)核地址空間mmap()才可以直接與PCIE設(shè)備DMA互傳數(shù)據(jù)。用戶態(tài)程序必須區(qū)分不同的地址段,要分清哪一塊內(nèi)存是DMA映射的,哪一塊是自己私有的的。
最后,F(xiàn)PGA上不能有Cache(緩存),F(xiàn)PGA自己可以有自己的Cache,但是不能把主存里的數(shù)據(jù)放在自己這邊,每次訪問內(nèi)存都要用復(fù)雜的過程訪問主存里,這也是一個關(guān)鍵的缺點(diǎn)。
所以我們看到為了讓FPGA做一件事,進(jìn)行了太多操作,開銷很大,很費(fèi)時間,這需要別的技術(shù)來解決之。
有了CAPI的FPGA是怎么做的?
首先認(rèn)識一下這個體系里的三個角色:
AFU(Acceleration Function Unit),主加速邏輯部分就是FPAG的加速芯片,用戶可以把自己的加速邏輯和Firmware寫進(jìn)去。
PSL—Power Service Layer,提供接口給AFU用于讀寫主存和V2P地址翻譯(與CPU側(cè)使用同一個頁表,并包含TLB),同時負(fù)責(zé)Probe CAPP實(shí)現(xiàn)全局cc,并提供Cache。PSL由IBM作為硬核IP提供給FPGA開發(fā)者。
CAPP—Coherent Attached Processor Proxy,相當(dāng)于FPGA側(cè)的ccAgent,但是被放在了CPU側(cè),其維護(hù)一個filter目錄并接受來自其他CPU的Probe,未過濾掉的Probe轉(zhuǎn)發(fā)PSL。
操作要點(diǎn)可以簡要的概括為以下6點(diǎn):
針對專用場景、PCIE專用加速卡進(jìn)行優(yōu)化;
FPGA直接訪問當(dāng)前進(jìn)程的全部虛擬地址空間,無需轉(zhuǎn)成PCIE地址;
加速卡上可以使用Cache并通過CAPP的Probe操作自動與主存cc;
加速卡與CPU看到同樣的地址空間并且cc;
提供API,包括打開設(shè)備、傳遞任務(wù)描述信息等,相當(dāng)于驅(qū)動程序;
PSL由IBM提供,硬核IP。AFU通過opcode及地址控制PSL收發(fā)數(shù)據(jù)。
在此過程中,CAPI致力于把FPGA當(dāng)成CPU的對等端,但這是一個特殊的CPU,對計(jì)算加速非常快的,非常高效的一個CPU。優(yōu)勢在于:兩邊看到了一樣的地址空間,F(xiàn)PGA看到的不再是PCIe空間了,所以就省去了映射地址這一環(huán)節(jié)。再就是FPGA一側(cè)可以有Cache,可以緩存主存里的數(shù)據(jù),而且Cache是與主存一致的。
現(xiàn)在FPGA可直接訪問主存空間,但它不會訪問所有的物理空間,因?yàn)镃API 1.0每個時刻只能給一個進(jìn)程來用,CAPI會為進(jìn)程會提供一個接口,打開FPGA之后發(fā)數(shù)據(jù)和指令。CAPI 2.0會讓FPGA有一個分時復(fù)用機(jī)制,比如,每10毫秒跳一個線程,但是當(dāng)前的FPGA不具備這個功能,只能是誰用誰打開。誰打開了FPGA就看到誰的虛擬空間。有了這種機(jī)制以后就不需要映射了,再就是可以直接訪問內(nèi)存地址了。還有Cache,基本就融入了所有的CPU了,就是一個對等、對稱的關(guān)系。
性能能提高多少?
硬件配置是這樣的:
IBM Power8 Server, S822L
Ubuntu, kernel 3.18.0-14-generic
Nallatech 385 CAPI card
Samsung SM1715 1.6TB NVM ExpressSSD
測試時,?PMC工程師用FPGA制作了一個文本搜索引擎,如上圖。
測試過程中,Host端主程序從NVMe SSD讀入數(shù)據(jù),并生成任務(wù)描述鏈表,?AFU采用pooling的方式訪問主存獲取任務(wù)描述鏈表并執(zhí)行搜索任務(wù),Snooper用來debug和性能監(jiān)控。
性能 – P8<->AFU
當(dāng)隊(duì)列深度60時的時候,獲得一個極限吞吐量,接近6GB/s的帶寬,帶寬非常大。
CAPI1.0暫時做不到的事情
現(xiàn)在CPU的線程看不到AFU上的地址空間(MMIO控制寄存器地址除外)。而且,AFU只能給一個進(jìn)程使用。如果未來可以把FPGA直接接入CPU的FSB,是不是會更快?
延時也很小,只有1.5微秒,平均90%讀寫在1.5微秒完成。
張冬,《大話存儲》系列圖書作者,PMC公司數(shù)據(jù)中心存儲架構(gòu)師。張冬先生是《大話存儲》系列圖書作者,該書屢次獲獎,包括2008年十大IT暢銷書排名第一,2009年全國技術(shù)品種暢銷書。張冬在存儲領(lǐng)域有多年的從業(yè)經(jīng)驗(yàn),主持并參與過多項(xiàng)創(chuàng)新存儲技術(shù)的設(shè)計(jì)。
評論
查看更多