0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

FPGA還是GPU?AI主芯片將如何選擇

FPGA設計論壇 ? 來源:未知 ? 2023-02-05 22:35 ? 次閱讀

盡管模仿人類思想和想法的軟件算法人工智能的基礎,但硬件也是一個重要組成部分,這就是現場可編程門陣列 (FPGA) 和圖形處理單元(GPU)發(fā)揮重要作用的地方。

人工智能 (AI) 是指能夠以與人類相同的方式做出決策的非人類機器智能。這包括沉思、適應能力、意圖能力和判斷力。機器視覺、機器人自動化、認知計算、機器學習計算機視覺都是人工智能市場的應用。人工智能正在汽車、消費電子、媒體和娛樂以及半導體等多個行業(yè)領域迅速獲得關注,預示著下一次偉大的技術變革。

半導體預計將在未來幾年持續(xù)增長。隨著全球對機器學習設備的需求不斷增長,許多屬于 EDA電子設計自動化)、顯卡、游戲、多媒體行業(yè)的主要市場參與者正在投資提供創(chuàng)新的高速計算處理器。雖然人工智能主要基于模仿人類思想和想法的軟件算法,但硬件也是一個重要組成部分。現場可編程門陣列 (FPGA) 和圖形處理單元 (GPU) 是大多數 AI 操作的兩種主要硬件解決方案。據先行研究組預測,2021年全球人工智能硬件市場規(guī)模為104.1億美元,預計到2030年將達到892.2億美元,2022-2030年復合年增長率為26.96%


FPGA 和 GPU 概述

FPGA 概述

具有可重新編程邏輯門的硬件電路稱為現場可編程門陣列 (FPGA)。當芯片在現場使用時,用戶可以通過覆蓋配置來設計獨特的電路。這與不能重新編程的標準芯片形成對比。使用 FPGA 芯片,您可以構建從簡單的邏輯門到多核芯片組的任何東西。FPGA 的使用非常流行,其中內部電路是必不可少的,并且預計會發(fā)生變化。FPGA 應用涵蓋 ASIC 原型設計、汽車、多媒體、消費電子產品以及更多領域。根據應用要求,可選擇低端、中端或高端 FPGA 配置。Lattice 半導體的 ECP3 和 ECP5 系列、Xilinx 的 Artix-7/Kintex-7 系列和 Intel 的 Stratix 系列是一些流行的低功耗和低設計密度的 FPGA 設計。

邏輯塊是使用具有有限輸入的查找表 (LUT) 構建的,并使用基本存儲器(例如 SRAM 或閃存)來構建以存儲布爾函數。每個 LUT 都鏈接到一個多路復用器和一個觸發(fā)器寄存器以支持時序電路。同樣,許多 LUT 可用于創(chuàng)建復雜的功能。

FPGA 更適合嵌入式應用,并且比 CPU 和 GPU 使用的功率更低。這些電路不受 GPU 等設計的限制,可用于定制數據類型。此外,FPGA 的可編程性使得修改它們變得更加簡單。


使用 FPGA 的優(yōu)勢

高效節(jié)能

借助 FPGA,設計人員可以精確調整硬件以滿足應用程序的要求。憑借其低功耗能力,可以最大限度地降低 AI 和 ML 應用程序的整體功耗。這可以延長設備的使用壽命并降低培訓的總體成本。

易于靈活

FPGA 為處理 AI/ML 應用程序提供了可編程性的靈活性??梢愿鶕枰獙σ粋€單獨的塊或整個塊進行編程。

減少延遲

FPGA 擅長處理短語并減少延遲。減少延遲是指計算系統(tǒng)以最小延遲響應的能力。這在視頻監(jiān)控、視頻預處理和后處理以及文本識別等實時數據處理應用中至關重要,在這些應用中,每一微秒都至關重要。因為它們在沒有操作系統(tǒng)的裸機環(huán)境中運行,所以 FPGA 和 ASIC 比 GPU 更快。

并行處理

FPGA 的操作和能源效率由于它們能夠同時執(zhí)行多項任務甚至指定設備的特定部分用于特定功能而得到顯提高。少量分布式內存包含在 FPGA 特殊架構的結構中,使它們更接近處理器。

GPU 概述

圖形處理單元 (GPU) 的最初目的是創(chuàng)建計算機圖形和虛擬現實環(huán)境,這些環(huán)境依賴于復雜的計算和浮點功能來渲染幾何對象。沒有它們,現代人工智能基礎設施將不完整,并且非常適合深度學習過程。

人工智能需求大量數據可供研究和學習以取得成功。要運行人工智能算法并移動大量數據,需要大量的計算能力。GPU 可以執(zhí)行這些任務,因為它們的創(chuàng)建是為了快速處理生成圖形和視頻所需的大量數據。它們在機器學習和人工智能應用中的廣泛使用部分歸功于它們的高計算能力。

GPU 可以同時處理多項計算。因此,可以分布式訓練程序,從而大大加快機器學習活動。使用 GPU,您可以添加多個資源需求較低的內核,而不會影響性能或功率。市場上有各種類型的 GPU,通常分為以下幾類,例如數據中心 GPU、消費級 GPU 和企業(yè)級 GPU。


使用 GPU 的優(yōu)勢

內存帶寬

GPU 具有良好的內存帶寬,因此在深度學習應用程序中它們往往可以快速執(zhí)行計算。在大型數據集上訓練模型時,GPU 消耗的內存更少。憑借高達 750GB 的內存帶寬,它們可以真正加速 AI 算法的快速處理。

多核

通常,GPU 由許多可以組合在一起的處理器集群組成。這使得可以極大地提高系統(tǒng)的處理能力,特別是對于具有并行數據輸入、卷積神經網絡 (CNN) 和 ML 算法訓練的 AI 應用程序。

靈活性

由于 GPU 的并行能力,您可以將 GPU 分組到集群中并在這些集群之間分配作業(yè)。另一種選擇是使用具有專用集群的單個 GPU 來訓練特定算法。具有高數據吞吐量的 GPU 可以并行地對許多數據點執(zhí)行相同的操作,從而使它們能夠以無與倫比的速度處理大量數據。

數據集大小

對于模型訓練,AI 算法需要大量數據集,這會導致內存密集型計算。GPU 是高效處理具有許多大于 100GB 的數據點的數據集的最佳選擇之一。自并行處理開始以來,它們提供了有效處理基本相同或非結構化數據所需的原始計算能力。


運行 AI 應用程序的兩個主要硬件選擇是 FPGA 和 GPU。盡管 GPU 可以處理 AI 和深度學習所需的海量數據,但它們在能效、熱問題、耐用性以及使用新 AI 算法更新應用程序的能力方面存在局限性。FPGA 為神經網絡和 ML 應用程序提供了顯著優(yōu)勢。這些包括易于 AI 算法更新、可用性、耐用性和能源效率。

此外,在為 FPGA 創(chuàng)建軟件方面取得了重大進展,這使得編譯和編程變得更加簡單。為了讓您的 AI 應用程序取得成功,您必須調查您的硬件可能性。正如所說,在確定行動方案之前,請仔細權衡您的選擇。





掃描二維碼獲取

更多精彩

FPGA設計論壇





歡迎關注至芯科技

至芯官網:www.zxopen.com

至芯科技技術論壇:www.fpgaw.com

至芯科技淘寶網址:

https://zxopen.taobao.com

至芯科技FPGA初級課程(B站):

https://space.bilibili.com/521850676

至芯科技FPGA在線課程(騰訊課堂):

https://zxopenbj.ke.qq.com/

至芯科技-FPGA 交流群(QQ):282124839

更多資料下載歡迎注冊http://www.fpgaw.com

掃碼加微信回復加群

邀請您加入FPGA學習交流群




歡迎加入至芯科技FPGA微信學習交流群,這里有一群優(yōu)秀的FPGA工程師、學生、老師、這里FPGA技術交流學習氛圍濃厚、相互分享、相互幫助、叫上小伙伴一起加入吧!


原文標題:FPGA還是GPU?AI主芯片將如何選擇

文章出處:【微信公眾號:FPGA設計論壇】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • FPGA
    +關注

    關注

    1620

    文章

    21510

    瀏覽量

    598983

原文標題:FPGA還是GPU?AI主芯片將如何選擇

文章出處:【微信號:gh_9d70b445f494,微信公眾號:FPGA設計論壇】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    【書籍評測活動NO.43】 算力芯片 | 高性能 CPU/GPU/NPU 微架構分析

    的G80到現在重金難求的H100;AMD的Zen系列CPU和RDNA系列GPU兩線作戰(zhàn);中國的高性能計算芯片逐步獲得更多TOP500排名;華為Ascend 910 NPU芯片也成為AI
    發(fā)表于 09-02 10:09

    自動駕駛三大主流芯片架構分析

    當前主流的AI芯片主要分為三類,GPU、FPGA、ASIC。GPU、FPGA均是前期較為成熟的
    的頭像 發(fā)表于 08-19 17:11 ?1107次閱讀
    自動駕駛三大主流<b class='flag-5'>芯片</b>架構分析

    AI時代的芯片革命:GPU、FPGA與TPU競相涌現

    隨著人工智能(AI)技術的迅猛發(fā)展,我們正站在一個新時代的門檻上,這個時代將由強大的計算芯片引領,徹底改變世界經濟格局。美國開放人工智能研究中心(OpenAI)首席執(zhí)行官山姆·奧特曼等人的洞察無疑揭示了這一點:擁有強大的計算芯片
    的頭像 發(fā)表于 06-20 09:47 ?438次閱讀

    科普:GPUFPGA,有何異同

    (CPU)是第三種類型。讓我們深入了解GPUFPGA之間的主要區(qū)別、它們的優(yōu)勢、常見用例以及何時選擇其中一種。什么是FPGA?FPGA(現
    的頭像 發(fā)表于 06-15 08:27 ?530次閱讀
    科普:<b class='flag-5'>GPU</b>和<b class='flag-5'>FPGA</b>,有何異同

    中高端FPGA如何選擇

    隨著國產FPGA的崛起,中低端產品中,很多國產FPGA都是不錯的選擇,性價比很高。高端FPGA中,往往還是以AMD和Intel為主,但最近這
    發(fā)表于 04-24 15:09

    FPGA芯片你了解多少?

    的缺點。 FPGA和CPU、GPU、ASIC的芯片等核心區(qū)別是其底層邏輯運算單元的連線及邏輯布局未固化,用戶可通過 EDA 軟件對邏輯單元和開關陣列編程,進行功能配置,從而去實現特定功能的集成電路
    發(fā)表于 04-17 11:13

    AI服務器異構計算深度解讀

    AI服務器按芯片類型可分為CPU+GPU、CPU+FPGA、CPU+ASIC等組合形式,CPU+GPU是目前國內的主要
    發(fā)表于 04-12 12:27 ?453次閱讀
    <b class='flag-5'>AI</b>服務器異構計算深度解讀

    fpgagpu的區(qū)別

    FPGA(現場可編程門陣列)和GPU(圖形處理器)在多個方面存在顯著的區(qū)別。
    的頭像 發(fā)表于 03-27 14:23 ?954次閱讀

    FPGA在深度學習應用中或將取代GPU

    對神經網絡進行任何更改,也不需要學習任何新工具。不過你可以保留你的 GPU 用于訓練?!?Zebra 提供了將深度學習代碼轉換為 FPGA 硬件指令的抽象層 AI 硬件前景
    發(fā)表于 03-21 15:19

    汽車通信芯片匯總梳理

    一、CPU/GPU/FPGA/ASIC芯片CPU/GPU/FPGA/ASIC芯片是智能汽車的“大
    的頭像 發(fā)表于 02-20 16:44 ?1340次閱讀
    汽車通信<b class='flag-5'>芯片</b>匯總梳理

    到底什么是ASIC和FPGA?

    ASIC和FPGA的區(qū)別,還有它們和CPU、GPU之間的區(qū)別。 ASIC和FPGA,本質上都是芯片。AISC是全定制芯片,功能寫死,沒辦法
    發(fā)表于 01-23 19:08

    FPGA、ASIC、GPU誰是最合適的AI芯片?

    CPU、GPU遵循的是馮·諾依曼體系結構,指令要經過存儲、譯碼、執(zhí)行等步驟,共享內存在使用時,要經歷仲裁和緩存。 而FPGA和ASIC并不是馮·諾依曼架構(是哈佛架構)。以FPGA為例,它本質上是無指令、無需共享內存的體系結
    發(fā)表于 01-06 11:20 ?1116次閱讀
    <b class='flag-5'>FPGA</b>、ASIC、<b class='flag-5'>GPU</b>誰是最合適的<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>?

    ASIC和GPU,誰才是AI計算的最優(yōu)解?

    電子發(fā)燒友網報道(文/周凱揚)隨著AI計算開始有著風頭蓋過通用計算開始,不少芯片廠商都將其視為下一輪技術革新。CPU、GPUFPGA和ASIC紛紛投入到這輪
    的頭像 發(fā)表于 12-03 08:31 ?1893次閱讀
    ASIC和<b class='flag-5'>GPU</b>,誰才是<b class='flag-5'>AI</b>計算的最優(yōu)解?

    大模型算驅動AI服務器行業(yè)報告

    AI服務器按芯片類型可分為CPU+GPU、CPU+FPGA、CPU+ASIC等組合形式,CPU+GPU是目前國內的主要
    發(fā)表于 11-28 09:18 ?204次閱讀
    大模型算驅動<b class='flag-5'>AI</b>服務器行業(yè)報告

    FPGA和CPU、GPU有什么區(qū)別?為什么越來越重要?

    ,在數據中心高性能計算及 AI 訓練中,CPU 這一“主角”的重要性下降,而以往的“配角們”,即 GPU、FPGA、TPU、DPU 等的加速器的重要性在上升。 圖3:MLP網絡本質是并行的乘法和累加
    發(fā)表于 11-09 14:09