英特爾發(fā)明的混合處理架構(gòu)的人工智能芯片,通過(guò)將CPU與模擬內(nèi)存AI處理器相耦合,從而達(dá)到加速神經(jīng)網(wǎng)絡(luò)運(yùn)算的目的。
英特爾在2019年發(fā)布了兩款Nervana NNP系列新的處理器,目的在于加速人工智能模型的訓(xùn)練。據(jù)悉,英特爾的這兩款芯片是以2016年收購(gòu)的Nervana Systems命名,在人工智能訓(xùn)練以及數(shù)據(jù)分析等方面有著極大的價(jià)值。
而英特爾與英偉達(dá)作為AI芯片競(jìng)爭(zhēng)的主要成員,均在AI領(lǐng)域奮起發(fā)力,其中,英特爾主導(dǎo)AI推理市場(chǎng),而英偉達(dá)主導(dǎo)AI訓(xùn)練芯片。
但是用于神經(jīng)網(wǎng)絡(luò)處理的加速器系統(tǒng),仍然存在著許多問(wèn)題,例如由于與從存儲(chǔ)器到數(shù)字處理單元的數(shù)據(jù)傳輸?shù)膸捪拗贫鴮?dǎo)致的問(wèn)題,這些加速器通常需要在片外存儲(chǔ)器和數(shù)字處理單元之間傳輸大量數(shù)據(jù),而這種數(shù)據(jù)傳輸會(huì)導(dǎo)致延遲和功耗的不良增加。
為此,英特爾在2020年7月30日申請(qǐng)了一項(xiàng)名為“混合CPU和模擬內(nèi)存人工智能處理器”的發(fā)明專利(公開(kāi)號(hào):US 2020/0242458 A1),申請(qǐng)人為英特爾公司,該專利旨在提供用于實(shí)現(xiàn)通用處理器的混合處理架構(gòu)的技術(shù)。
根據(jù)該專利目前公開(kāi)的資料,讓我們一起來(lái)看看這項(xiàng)混合處理架構(gòu)的人工智能芯片吧。
如上圖,為這種混合處理器的頂級(jí)框圖,可以看到,CPU與模擬內(nèi)存AI處理器相耦合,CPU是通用處理器,例如我們熟知的x86架構(gòu)處理器。模擬存儲(chǔ)器中AI處理器可以通過(guò)數(shù)字訪問(wèn)電路從CPU接收加權(quán)因子和輸入數(shù)據(jù)130,并基于加權(quán)因子和數(shù)據(jù)執(zhí)行模擬神經(jīng)網(wǎng)絡(luò)處理。
模擬內(nèi)存中AI處理器包括多個(gè)MN層,可以將它們配置為卷積神經(jīng)網(wǎng)絡(luò)層和全連接層,并且可以任意的組合使用,卷積神經(jīng)網(wǎng)絡(luò)層的處理結(jié)果也可以通過(guò)數(shù)字訪問(wèn)電路提供給CPU作為輸出150。
如上圖,展示了全連接層的網(wǎng)絡(luò)層和該層的矩陣乘法實(shí)現(xiàn),網(wǎng)絡(luò)層接受來(lái)自于上一層的輸入230,并將權(quán)重w(220)應(yīng)用于輸入x(230)和輸出x(250)之間的每個(gè)連接,由此將網(wǎng)絡(luò)實(shí)現(xiàn)為矩陣乘法運(yùn)算,如260所示,將輸出的每個(gè)元素計(jì)算為權(quán)重220行與輸入230列之間的點(diǎn)積。
如上圖,為該專利中的模擬內(nèi)存人工智能處理器的框圖,AI處理器用來(lái)實(shí)現(xiàn)完全連接的單個(gè)神經(jīng)網(wǎng)絡(luò)層,其中包括數(shù)字訪問(wèn)電路310、第一存儲(chǔ)器電路320、第二存儲(chǔ)器電路350、位線處理器電路330、交叉位線處理器電路340以及閾值整流線性單元(ReLU)電路360。
這些電路的作用就是實(shí)現(xiàn)各種點(diǎn)乘運(yùn)算以及模擬乘法運(yùn)算,這些運(yùn)算是深度神經(jīng)網(wǎng)絡(luò)中常用的操作,而人工智能芯片就是在硬件的層面上對(duì)于這些運(yùn)算進(jìn)行實(shí)現(xiàn),而直接從硬件層面進(jìn)行運(yùn)算的好處就在于會(huì)更加的快捷以及有較高的效率。
具體而言,交叉位線處理器電路通過(guò)定時(shí)電容器上的電流積分來(lái)執(zhí)行點(diǎn)積運(yùn)算的模擬乘法部分,該電路實(shí)際上是一個(gè)與開(kāi)關(guān)串聯(lián)的電容器。在位線上感測(cè)到的電壓作為被乘數(shù)輸入之一,通過(guò)與電容器產(chǎn)生電流,另一個(gè)被乘數(shù)用來(lái)控制串聯(lián)開(kāi)關(guān)的時(shí)序,以使開(kāi)關(guān)導(dǎo)通的持續(xù)時(shí)間與第二個(gè)開(kāi)關(guān)成比例。從而通過(guò)電荷累積來(lái)執(zhí)行點(diǎn)積運(yùn)算的模擬求和部分。
最后,是這種用于模擬內(nèi)存中神經(jīng)網(wǎng)絡(luò)處理的方法的流程圖,如上圖所示,可以看出,這種方法包括了多個(gè)階段和子過(guò)程,分別對(duì)應(yīng)著上述的系統(tǒng)架構(gòu)來(lái)實(shí)現(xiàn)。首先,用于模擬內(nèi)存中神經(jīng)網(wǎng)絡(luò)處理的方法通過(guò)數(shù)字訪問(wèn)電路從CPU中接收輸入數(shù)據(jù)和加權(quán)因子而開(kāi)始運(yùn)算。
接著,將輸入數(shù)據(jù)存儲(chǔ)在第一存儲(chǔ)電路中,并將加權(quán)因子存儲(chǔ)在第二存儲(chǔ)電路中,存儲(chǔ)電路用于模擬內(nèi)存計(jì)算。其次,由第一存儲(chǔ)電路生成模擬電壓值,有第二存儲(chǔ)電路生成模擬電壓值的第二序列。最后,再由交叉位線處理器計(jì)算一系列的模擬點(diǎn)積,從而完成整個(gè)運(yùn)算過(guò)程。
以上就是英特爾發(fā)明的混合處理架構(gòu)的人工智能芯片,通過(guò)將CPU與模擬內(nèi)存AI處理器相耦合,從而達(dá)到加速神經(jīng)網(wǎng)絡(luò)運(yùn)算的目的。這種技術(shù)特別適用于AI平臺(tái),例如在智能家居控制系統(tǒng)、機(jī)器人、虛擬助手等方面均可以發(fā)揮重要的作用。
關(guān)于嘉德
深圳市嘉德知識(shí)產(chǎn)權(quán)服務(wù)有限公司由曾在華為等世界500強(qiáng)企業(yè)工作多年的知識(shí)產(chǎn)權(quán)專家、律師、專利代理人組成,熟悉中歐美知識(shí)產(chǎn)權(quán)法律理論和實(shí)務(wù),在全球知識(shí)產(chǎn)權(quán)申請(qǐng)、布局、訴訟、許可談判、交易、運(yùn)營(yíng)、標(biāo)準(zhǔn)專利協(xié)同創(chuàng)造、專利池建設(shè)、展會(huì)知識(shí)產(chǎn)權(quán)、跨境電商知識(shí)產(chǎn)權(quán)、知識(shí)產(chǎn)權(quán)海關(guān)保護(hù)等方面擁有豐富的經(jīng)驗(yàn)。
責(zé)任編輯:tzh
-
處理器
+關(guān)注
關(guān)注
68文章
19118瀏覽量
228865 -
芯片
+關(guān)注
關(guān)注
453文章
50254瀏覽量
421121 -
AI
+關(guān)注
關(guān)注
87文章
29862瀏覽量
268154 -
人工智能
+關(guān)注
關(guān)注
1791文章
46698瀏覽量
237190
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論