您好,歡迎來電子發(fā)燒友網(wǎng)! ,新用戶?[免費(fèi)注冊]

您的位置:電子發(fā)燒友網(wǎng)>電子百科>主機(jī)配件>cpu>

GPU - GPU/CPU/TPU都是啥?有何區(qū)別?

2016年05月30日 16:01 華爾街見聞 作者:佚名 用戶評論(0

  GPU 的處理核心 SP 基于傳統(tǒng)的處理器核心設(shè)計(jì),能夠進(jìn)行整數(shù),浮點(diǎn)計(jì)算,邏輯運(yùn)算等操作,從硬體設(shè)計(jì)上看就是一種完全為多線程設(shè)計(jì)的處理核心,擁有復(fù)數(shù)的管線平臺(tái)設(shè)計(jì),完全勝任每線程處理單指令的工作。

  GPU/CPU/TPU都是啥?有何區(qū)別?

  GPU 處理的首要目標(biāo)是運(yùn)算以及數(shù)據(jù)吞吐量,而 CPU 內(nèi)部晶體管的首要目的是降低處理的延時(shí)以及保持管線繁忙,這也決定了 GPU 在密集型計(jì)算方面比起 CPU 來更有優(yōu)勢。

  GPU+CPU異構(gòu)運(yùn)算

  就目前來看,GPU不是完全代替CPU,而是兩者分工合作。據(jù)海通證券:

  在 GPU 計(jì)算中 CPU 和 GPU 之間是相連的,而且是一個(gè)異構(gòu)的計(jì)算環(huán)境。這就意味著應(yīng)用程序當(dāng)中,順序執(zhí)行這一部分的代碼是在 CPU 里面進(jìn)行執(zhí)行的,而并行的也就是計(jì)算密集這一部分是在 GPU 里面進(jìn)行。

  異構(gòu)運(yùn)算(heterogeneous computing)是通過使用計(jì)算機(jī)上的主要處理器,如CPU 以及 GPU 來讓程序得到更高的運(yùn)算性能。一般來說,CPU 由于在分支處理以及隨機(jī)內(nèi)存讀取方面有優(yōu)勢,在處理串聯(lián)工作方面較強(qiáng)。在另一方面,GPU 由于其特殊的核心設(shè)計(jì),在處理大量有浮點(diǎn)運(yùn)算的并行運(yùn)算時(shí)候有著天然的優(yōu)勢。完全使用計(jì)算機(jī)性能實(shí)際上就是使用 CPU 來做串聯(lián)工作,而 GPU 負(fù)責(zé)并行運(yùn)算,異構(gòu)運(yùn)算就是“使用合適的工具做合適的事情”。

  只有很少的程序使用純粹的串聯(lián)或者并行的,大部分程序同時(shí)需要兩種運(yùn)算形式。編譯器、文字處理軟件、瀏覽器、e-mail 客戶端等都是典型的串聯(lián)運(yùn)算形式的程序。而視頻播放,視頻壓制,圖片處理,科學(xué)運(yùn)算,物理模擬以及 3D 圖形處理(Ray tracing 及光柵化)這類型的應(yīng)用就是典型的并行處理程序。

  GPU的運(yùn)用

  正是因?yàn)镚PU特別適合大規(guī)模并行運(yùn)算的特點(diǎn),因此,“GPU 在深度學(xué)習(xí)領(lǐng)域發(fā)揮著巨大的作用”。via 海通證券:

  GPU可以平行處理大量瑣碎信息。深度學(xué)習(xí)所依賴的是神經(jīng)系統(tǒng)網(wǎng)絡(luò)——與人類大腦神經(jīng)高度相似的網(wǎng)絡(luò)——而這種網(wǎng)絡(luò)出現(xiàn)的目的,就是要在高速的狀態(tài)下分析海量的數(shù)據(jù)。例如,如果你想要教會(huì)這種網(wǎng)絡(luò)如何識別出貓的模樣,你就要給它提供無數(shù)多的貓的圖片。而這種工作,正是 GPU 芯片所擅長的事情。 而且相比于 CPU,GPU 的另一大優(yōu)勢,就是它對能源的需求遠(yuǎn)遠(yuǎn)低于 CPU。GPU 擅長的是海量數(shù)據(jù)的快速處理。

  深度學(xué)習(xí)令 NVIDIA 業(yè)績加速增長,利用 GPU 的大規(guī)模并行處理能力來學(xué)習(xí)人工智能算法再合適不過,GPU 并行計(jì)算能力正在滲透一個(gè)又一個(gè)高精尖行業(yè),推動(dòng)GPU 的需求不斷增長。移動(dòng)端,不論是當(dāng)前火熱的移動(dòng)直播,還是移動(dòng) VR 設(shè)備,基于圖形處理的需求都在急劇爆發(fā)。目前移動(dòng)市場的 GPU 還遠(yuǎn)遠(yuǎn)落后于 PC 端,市場被高通ARM、imagination 等三大巨頭占據(jù)。

  GPU的劣勢

  不過,GPU也有不足之處。據(jù)浙商證券總結(jié):

  雖然GPU更擅長于類似圖像處理的并行計(jì)算,因?yàn)橄袼嘏c像素之間相對獨(dú)立,GPU 提供大量的核,可以同時(shí)對很多像素進(jìn)行并行處理。但是,這并不能帶來延遲的提升(而僅僅是處理吞吐量的提升)。比如,當(dāng)一個(gè)消息到達(dá)時(shí),雖然 GPU 有很多的核,但只能有其中一個(gè)核被用來處理當(dāng)前這個(gè)消息,而且 GPU 核通常被設(shè)計(jì)為支持與圖像處理相關(guān)的運(yùn)算,不如 CPU 通用。

  GPU 主要適用于在數(shù)據(jù)層呈現(xiàn)很高的并行特性(data-parallelism)的應(yīng)用,比如 GPU 比較適合用于類似蒙特卡羅模擬這樣的并行運(yùn)算。

  GPU 的另外一個(gè)問題是,它的“確定性”不如可編程的硅芯片FPGA,相對較容易產(chǎn)生計(jì)算錯(cuò)誤。

  TPU

  TPU,即谷歌的張量處理器——Tensor Processing Unit。

  據(jù)谷歌工程師Norm Jouppi介紹,TPU是一款為機(jī)器學(xué)習(xí)而定制的芯片,經(jīng)過了專門深度機(jī)器學(xué)習(xí)方面的訓(xùn)練,它有更高效能(每瓦計(jì)算能力)。大致上,相對于現(xiàn)在的處理器有7年的領(lǐng)先優(yōu)勢,寬容度更高,每秒在芯片中可以擠出更多的操作時(shí)間,使用更復(fù)雜和強(qiáng)大的機(jī)器學(xué)習(xí)模型,將之更快的部署,用戶也會(huì)更加迅速地獲得更智能的結(jié)果。

  谷歌專門為人工智能研發(fā)的TPU被疑將對GPU構(gòu)成威脅。不過谷歌表示,其研發(fā)的TPU不會(huì)直接與英特爾或NVIDIA進(jìn)行競爭。

  據(jù)谷歌介紹,TPU已在谷歌的數(shù)據(jù)中心運(yùn)行了一年多,表現(xiàn)非常好。谷歌的很多應(yīng)用都用到了TPU,比如谷歌街景,以及AlphaGo等。

  TPU最新的表現(xiàn)正是人工智能與人類頂級圍棋手的那場比賽。在AlphaGo戰(zhàn)勝李世石的系列賽中,TPU能讓AlphaGo“思考”更快,“想”到更多棋招、更好地預(yù)判局勢。

非常好我支持^.^

(37) 100%

不好我反對

(0) 0%

( 發(fā)表人:方泓翔 )

      發(fā)表評論

      用戶評論
      評價(jià):好評中評差評

      發(fā)表評論,獲取積分! 請遵守相關(guān)規(guī)定!

      ?