GPU - GPU/CPU/TPU都是啥?有何區(qū)別?
GPU 的處理核心 SP 基于傳統(tǒng)的處理器核心設(shè)計(jì),能夠進(jìn)行整數(shù),浮點(diǎn)計(jì)算,邏輯運(yùn)算等操作,從硬體設(shè)計(jì)上看就是一種完全為多線程設(shè)計(jì)的處理核心,擁有復(fù)數(shù)的管線平臺(tái)設(shè)計(jì),完全勝任每線程處理單指令的工作。
GPU 處理的首要目標(biāo)是運(yùn)算以及數(shù)據(jù)吞吐量,而 CPU 內(nèi)部晶體管的首要目的是降低處理的延時(shí)以及保持管線繁忙,這也決定了 GPU 在密集型計(jì)算方面比起 CPU 來更有優(yōu)勢。
GPU+CPU異構(gòu)運(yùn)算
就目前來看,GPU不是完全代替CPU,而是兩者分工合作。據(jù)海通證券:
在 GPU 計(jì)算中 CPU 和 GPU 之間是相連的,而且是一個(gè)異構(gòu)的計(jì)算環(huán)境。這就意味著應(yīng)用程序當(dāng)中,順序執(zhí)行這一部分的代碼是在 CPU 里面進(jìn)行執(zhí)行的,而并行的也就是計(jì)算密集這一部分是在 GPU 里面進(jìn)行。
異構(gòu)運(yùn)算(heterogeneous computing)是通過使用計(jì)算機(jī)上的主要處理器,如CPU 以及 GPU 來讓程序得到更高的運(yùn)算性能。一般來說,CPU 由于在分支處理以及隨機(jī)內(nèi)存讀取方面有優(yōu)勢,在處理串聯(lián)工作方面較強(qiáng)。在另一方面,GPU 由于其特殊的核心設(shè)計(jì),在處理大量有浮點(diǎn)運(yùn)算的并行運(yùn)算時(shí)候有著天然的優(yōu)勢。完全使用計(jì)算機(jī)性能實(shí)際上就是使用 CPU 來做串聯(lián)工作,而 GPU 負(fù)責(zé)并行運(yùn)算,異構(gòu)運(yùn)算就是“使用合適的工具做合適的事情”。
只有很少的程序使用純粹的串聯(lián)或者并行的,大部分程序同時(shí)需要兩種運(yùn)算形式。編譯器、文字處理軟件、瀏覽器、e-mail 客戶端等都是典型的串聯(lián)運(yùn)算形式的程序。而視頻播放,視頻壓制,圖片處理,科學(xué)運(yùn)算,物理模擬以及 3D 圖形處理(Ray tracing 及光柵化)這類型的應(yīng)用就是典型的并行處理程序。
GPU的運(yùn)用
正是因?yàn)镚PU特別適合大規(guī)模并行運(yùn)算的特點(diǎn),因此,“GPU 在深度學(xué)習(xí)領(lǐng)域發(fā)揮著巨大的作用”。via 海通證券:
GPU可以平行處理大量瑣碎信息。深度學(xué)習(xí)所依賴的是神經(jīng)系統(tǒng)網(wǎng)絡(luò)——與人類大腦神經(jīng)高度相似的網(wǎng)絡(luò)——而這種網(wǎng)絡(luò)出現(xiàn)的目的,就是要在高速的狀態(tài)下分析海量的數(shù)據(jù)。例如,如果你想要教會(huì)這種網(wǎng)絡(luò)如何識別出貓的模樣,你就要給它提供無數(shù)多的貓的圖片。而這種工作,正是 GPU 芯片所擅長的事情。 而且相比于 CPU,GPU 的另一大優(yōu)勢,就是它對能源的需求遠(yuǎn)遠(yuǎn)低于 CPU。GPU 擅長的是海量數(shù)據(jù)的快速處理。
深度學(xué)習(xí)令 NVIDIA 業(yè)績加速增長,利用 GPU 的大規(guī)模并行處理能力來學(xué)習(xí)人工智能算法再合適不過,GPU 并行計(jì)算能力正在滲透一個(gè)又一個(gè)高精尖行業(yè),推動(dòng)GPU 的需求不斷增長。移動(dòng)端,不論是當(dāng)前火熱的移動(dòng)直播,還是移動(dòng) VR 設(shè)備,基于圖形處理的需求都在急劇爆發(fā)。目前移動(dòng)市場的 GPU 還遠(yuǎn)遠(yuǎn)落后于 PC 端,市場被高通、ARM、imagination 等三大巨頭占據(jù)。
GPU的劣勢
不過,GPU也有不足之處。據(jù)浙商證券總結(jié):
雖然GPU更擅長于類似圖像處理的并行計(jì)算,因?yàn)橄袼嘏c像素之間相對獨(dú)立,GPU 提供大量的核,可以同時(shí)對很多像素進(jìn)行并行處理。但是,這并不能帶來延遲的提升(而僅僅是處理吞吐量的提升)。比如,當(dāng)一個(gè)消息到達(dá)時(shí),雖然 GPU 有很多的核,但只能有其中一個(gè)核被用來處理當(dāng)前這個(gè)消息,而且 GPU 核通常被設(shè)計(jì)為支持與圖像處理相關(guān)的運(yùn)算,不如 CPU 通用。
GPU 主要適用于在數(shù)據(jù)層呈現(xiàn)很高的并行特性(data-parallelism)的應(yīng)用,比如 GPU 比較適合用于類似蒙特卡羅模擬這樣的并行運(yùn)算。
GPU 的另外一個(gè)問題是,它的“確定性”不如可編程的硅芯片FPGA,相對較容易產(chǎn)生計(jì)算錯(cuò)誤。
TPU
TPU,即谷歌的張量處理器——Tensor Processing Unit。
據(jù)谷歌工程師Norm Jouppi介紹,TPU是一款為機(jī)器學(xué)習(xí)而定制的芯片,經(jīng)過了專門深度機(jī)器學(xué)習(xí)方面的訓(xùn)練,它有更高效能(每瓦計(jì)算能力)。大致上,相對于現(xiàn)在的處理器有7年的領(lǐng)先優(yōu)勢,寬容度更高,每秒在芯片中可以擠出更多的操作時(shí)間,使用更復(fù)雜和強(qiáng)大的機(jī)器學(xué)習(xí)模型,將之更快的部署,用戶也會(huì)更加迅速地獲得更智能的結(jié)果。
谷歌專門為人工智能研發(fā)的TPU被疑將對GPU構(gòu)成威脅。不過谷歌表示,其研發(fā)的TPU不會(huì)直接與英特爾或NVIDIA進(jìn)行競爭。
據(jù)谷歌介紹,TPU已在谷歌的數(shù)據(jù)中心運(yùn)行了一年多,表現(xiàn)非常好。谷歌的很多應(yīng)用都用到了TPU,比如谷歌街景,以及AlphaGo等。
TPU最新的表現(xiàn)正是人工智能與人類頂級圍棋手的那場比賽。在AlphaGo戰(zhàn)勝李世石的系列賽中,TPU能讓AlphaGo“思考”更快,“想”到更多棋招、更好地預(yù)判局勢。
- 第 1 頁:GPU/CPU/TPU都是啥?有何區(qū)別?
- 第 2 頁:GPU
本文導(dǎo)航
非常好我支持^.^
(37) 100%
不好我反對
(0) 0%
相關(guān)閱讀:
- [電子說] Blackwell GB100能否在超級計(jì)算機(jī)和AI市場保持領(lǐng)先優(yōu)勢? 2023-10-24
- [電子說] 如何使用Rust創(chuàng)建一個(gè)基于ChatGPT的RAG助手 2023-10-24
- [電子說] 射頻識別技術(shù)漫談(27)——CPU卡概述 2023-10-24
- [電子說] 講一講Apple Macintosh處理器過渡的故事 2023-10-24
- [電子說] 國產(chǎn)金融工控機(jī)的廣泛應(yīng)用領(lǐng)域和獨(dú)特優(yōu)勢 2023-10-24
- [人工智能] 研華推出EPC-B3000系列嵌入式工控機(jī),搭載先進(jìn)X86架構(gòu)CPU,助力邊緣人工智能應(yīng)用 2023-10-24
- [電子說] 異構(gòu)時(shí)代:CPU與GPU的發(fā)展演變 2023-10-24
- [電子說] RISC-V要顛覆GPU嗎? 2023-10-24
( 發(fā)表人:方泓翔 )