AI 芯片設(shè)計是人工智能產(chǎn)業(yè)鏈的重要一環(huán)。 自 2017 年 5 月以來,各 AI 芯片廠商的新品競相發(fā)布,經(jīng)過一年多的發(fā)展,各環(huán)節(jié)分工逐漸明顯。 AI 芯片的應(yīng)用場景不再局限于云端,部署于智能手機、 安防攝像頭、及自動駕駛汽車等終端的各項產(chǎn)品日趨豐富。 除了追求性能提升外, AI 芯片也逐漸專注于特殊場景的優(yōu)化。
自 2017 年 5 月以來發(fā)布的 AI 芯片一覽
目前, 人工智能產(chǎn)業(yè)鏈中,包括提供 AI 加速核的 IP 授權(quán)商,各種 AI 芯片設(shè)計公司,以及晶圓代工企業(yè)。
? 按部署的位置來分, AI 芯片可以部署在數(shù)據(jù)中心(云端),和手機,安防攝像頭,汽車等終端上。
? 按承擔(dān)的任務(wù)來分,可以被分為用于構(gòu)建神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練芯片,與利用神經(jīng)網(wǎng)絡(luò)模型進行推斷的推斷芯片。 訓(xùn)練芯片注重絕對的計算能力,而推斷芯片更注重綜合指標(biāo), 單位能耗算力、時延、成本等都要考慮。
? 訓(xùn)練芯片受算力約束,一般只在云端部署。推斷芯片按照不同應(yīng)用場景,分為手機邊緣推斷芯片、安防邊緣推斷芯片、自動駕駛邊緣推斷芯片。為方便起見,我們也稱它們?yōu)槭謾C AI 芯片、安防 AI 芯片和汽車 AI 芯片。
? 由于 AI芯片對單位能耗算力要求較高,一般采用 14nm/12nm/10nm等先進工藝生產(chǎn)。臺積電目前和 Nvidia、 Xilinx 等多家芯片廠商展開合作,攻堅 7nm AI 芯片。
AI 芯片投資地圖
AI 芯片市場規(guī)模: 未來五年有接近 10 倍的增長, 2022 年將達到 352 億美元。根據(jù)我們對相關(guān)上市 AI 芯片公司的收入統(tǒng)計,及對 AI 在各場景中滲透率的估算, 2017年 AI 芯片市場規(guī)模已達到 39.1 億美元,具體情況如下:
? 2017 年全球數(shù)據(jù)中心 AI 芯片規(guī)模合計 23.6 億美元,其中云端訓(xùn)練芯片市場規(guī)模 20.2億美元,云端推斷芯片 3.4 億美元。
? 2017 年全球手機 AI 芯片市場規(guī)模 3.7 億美元。
? 2017 年全球安防攝像頭 AI 芯片市場規(guī)模 3.3 億美元。
? 2017 年全球自動駕駛 AI 芯片的市場規(guī)模在 8.5 億美元。
AI 芯片市場規(guī)模及競爭格局
Nvidia 在 2017 年時指出,到 2020 年,全球云端訓(xùn)練芯片的市場規(guī)模將達到 110 億美元,而推斷芯片(云端+邊緣) 的市場規(guī)模將達到 150 億美元。 Intel 在剛剛結(jié)束的 2018 DCI峰會上,也重申了數(shù)據(jù)業(yè)務(wù)驅(qū)動硬件市場增長的觀點。 Intel 將 2022 年與用于數(shù)據(jù)中心執(zhí)行 AI 加速的 FPGA 的 TAM 預(yù)測,由 70 億美元調(diào)高至 80 億美元。
而同時我們也注意到:
1)手機 SoC 價格不斷上升、 AI 向中端機型滲透都將為行業(yè)創(chuàng)造更廣闊的市場空間。
歷代 Apple 手機芯片成本趨勢
2)安防芯片受益于現(xiàn)有設(shè)備的智能化升級,芯片需求擴大。
自動駕駛算力需求加速芯片升級
3)自動駕駛方面,針對豐田公司提出的算力需求,我們看到當(dāng)下芯片算力與 L5 級自動駕駛還有較大差距。 英飛凌公司給出了各自動駕駛等級中的半導(dǎo)體價值預(yù)測, 可以為我們的 TAM 估算提供參考。
英飛凌對各自動駕駛等級中半導(dǎo)體價值的預(yù)測
結(jié)合以上觀點,及我們對 AI 在各應(yīng)用場景下滲透率的分析,我們預(yù)測:
? 云端訓(xùn)練芯片市場規(guī)模在 2022 年將達到 172 億美元, CAGR~54%。
? 云端推斷芯片市場規(guī)模在 2022 年將達到 72 億美元, CAGR~84%。
? 用于智能手機的邊緣推斷芯片市場規(guī)模 2022 年將達到 38 億美元, CAGR~59%。
? 用于安防攝像頭的邊緣推斷芯片市場規(guī)模 2022 年將達到 18 億美元, CAGR~41%。
? 用于自動駕駛汽車的邊緣推斷芯片市場規(guī)模 2022 年將達到 52 億美元, CAGR~44%。
云端訓(xùn)練芯片: TPU 很難撼動 Nvidia GPU 的壟斷地位
訓(xùn)練是指通過大量的數(shù)據(jù)樣本,代入神經(jīng)網(wǎng)絡(luò)模型運算并反復(fù)迭代,來獲得各神經(jīng)元“正確”權(quán)重參數(shù)的過程。 CPU 由于計算單元少,并行計算能力較弱,不適合直接執(zhí)行訓(xùn)練任務(wù),因此訓(xùn)練一般采用“CPU+加速芯片”的異構(gòu)計算模式。目前 Nvidia 的 GPU+CUDA計算平臺是最成熟的 AI 訓(xùn)練方案,除此還有:
AI 芯片工作流程
? 第三方異構(gòu)計算平臺 OpenCL + AMD GPU 或 OpenCL+Intel/Xilinx 的 FPGA。
? 云計算服務(wù)商自研加速芯片(如 Google 的 TPU) 這兩種方案。各芯片廠商基于不同方案,都推出了針對于云端訓(xùn)練的 AI 芯片。
云端訓(xùn)練芯片對比
在 GPU 之外,云端訓(xùn)練的新入競爭者是 TPU。 Google 在去年正式發(fā)布了其 TPU 芯片,并在二代產(chǎn)品中開始提供對訓(xùn)練的支持,但比較下來, GPU 仍然擁有最強大的帶寬(900GB/s,保證數(shù)據(jù)吞吐量)和極高的深度學(xué)習(xí)計算能力(120 TFLOPS vs. TPUv2 45 TFLOPS),在功耗上也并沒有太大劣勢(TPU 進行訓(xùn)練時,引入浮點數(shù)計算,需要逾 200W 的功耗,遠不及推斷操作節(jié)能)。目前 TPU 只提供按時長付費使用的方式,并不對外直接銷售,市占率暫時也難以和 Nvidia GPU 匹敵。
? Intel
雖然深度學(xué)習(xí)任務(wù)主要由 GPU 承擔(dān),但 CPU 目前仍是云計算芯片的主體。 Intel 于 2015年底年收購全球第二大 FPGA 廠商 Altera 以后,也積極布局 CPU+FPGA 異構(gòu)計算助力 AI,并持續(xù)優(yōu)化 Xeon CPU 結(jié)構(gòu)。 2017 年 Intel 發(fā)布了用于 Xeon 服務(wù)器的,新一代標(biāo)準(zhǔn)化的加速卡,使用戶可以 AI 領(lǐng)域進行定制計算加速。得益于龐大的云計算市場支撐, Intel 數(shù)據(jù)中心組業(yè)務(wù)收入規(guī)模一直位于全球首位, 2016-17 年單季保持同比中高個位數(shù)增長。 2017年 4 季度起,收入同比增速開始爬坡至 20%左右,但相比 Nvidia 的強勁增長態(tài)勢仍有差距。
? AMD
AMD 雖未單獨拆分?jǐn)?shù)據(jù)中心收入,但從其計算和圖像業(yè)務(wù)的收入增長情況來看, GPU 銷量向好。目前 AMD GPU 也開始切入深度學(xué)習(xí)訓(xùn)練任務(wù),但市場規(guī)模落后于 Nvidia。
云端推斷芯片:百家爭鳴,各有千秋
推斷是指借助現(xiàn)有神經(jīng)網(wǎng)絡(luò)模型進行運算, 利用新的輸入數(shù)據(jù)來一次性獲得正確結(jié)論的過程。 推斷過程對響應(yīng)速度一般有較高要求, 因此會采用 AI 芯片(搭載訓(xùn)練完成的神經(jīng)網(wǎng)絡(luò)模型)進行加速。
相比訓(xùn)練芯片,推斷芯片考慮的因素更加綜合:單位功耗算力,時延,成本等等。初期推斷也采用 GPU 進行加速,但由于應(yīng)用場景的特殊性,依據(jù)具體神經(jīng)網(wǎng)絡(luò)算法優(yōu)化會帶來更高的效率, FPGA/ASIC 的表現(xiàn)可能更突出。除了 Nvidia、 Google、 Xilinx、 Altera(Intel)等傳統(tǒng)芯片大廠涉足云端推斷芯片以外, Wave computing、 Groq 等初創(chuàng)公司也加入競爭。中國公司里,寒武紀(jì)、比特大陸同樣積極布局云端芯片業(yè)務(wù)。
主要云端推斷芯片對比
我們認(rèn)為, 云端推斷芯片在未來會呈現(xiàn)百花齊放的態(tài)勢。 具體情況如下:
? Nvidia
在云端推斷芯片領(lǐng)域, Nvidia 主打產(chǎn)品為 P40 和 P4, 二者均采用 TSMC 16nm 制程。 TeslaP4 擁有 2560 個流處理器,每秒可進行 22 萬億次(TOPS) 計算(對應(yīng) INT 8)。而性能更強的 Tesla P40 擁有 3840 個流處理器,每秒可進行 47 萬億次(TOPS)計算(對應(yīng) INT 8)。從單位功耗推斷能力來看, P4/P40 雖然有進步,但仍遜于 TPU。 GPU 在推斷上的優(yōu)勢是帶寬。
Google TPU 1.0 為云端推斷而生,其運算單元對神經(jīng)網(wǎng)絡(luò)中的乘加運算進行了優(yōu)化,并采用整數(shù)運算。 TPU 1.0 單位功耗算力在量產(chǎn)云端推端芯片中最強,達 1.2TOPS/Watt,優(yōu)于主流 Nvidia GPU。 TPU 2.0 在推斷表現(xiàn)上相比于 1 代并沒有本質(zhì)提升,主要進步是引入對浮點數(shù)運算的支持,及更高的片上內(nèi)存。正如前文所述,支持訓(xùn)練的 TPU 功耗也會變得更高。
? Wave Computing
Wave computing 于 2010 年 12 月成立于加州,目前累計融資 1.2 億美元,是專注于云端深度學(xué)習(xí)訓(xùn)練和推理的初創(chuàng)公司。Wave computing 的一代 DPU 深度學(xué)習(xí)算力達 180 TOPS,且無需 CPU 來管理工作流。目前公司正與 Broadcomm 合作在開發(fā)二代芯片,將采用 7nm制程。
? Groq
Groq 是由 Google TPU 初始團隊離職創(chuàng)建的 AI 芯片公司,計劃在 2018 年發(fā)布第一代 AI芯片產(chǎn)品,對標(biāo)英偉達的 GPU。其算力可達 400 TOPs(INT 8),單位能耗效率表現(xiàn)搶眼。
? 寒武紀(jì)科技
寒武紀(jì)在 2017 年 11 月發(fā)布云端芯片 MLU 100,同時支持訓(xùn)練和推斷,但更側(cè)重于推斷。MLU 100 在 80W 的功耗下就可以達到 128 TOPS(對應(yīng) INT 8)的運算能力。
? 比特大陸
比特大陸的計算芯片 BM 1680,集成了深度學(xué)習(xí)算法硬件加速模塊(NPUs),應(yīng)用于云端計算與推理。 BM1680 還提供了 4 個獨立的 DDR4 通道,用于高速數(shù)據(jù)緩存讀取,以提高系統(tǒng)的執(zhí)行速度。其典型功耗只有 25W,在單位能耗推斷效率上有一定優(yōu)勢。
應(yīng)用場景#1:云端推斷芯片助力智能語音識別
云端推斷芯片提升語音識別速度。 語音識別是推斷芯片的工作場景之一,如 Amazon 的語音助手 Alexa,其“智能”來自于 AWS 云中的推斷芯片。 Alexa 是預(yù)裝在亞馬遜 Echo內(nèi)的個人虛擬助手,可以接收及相應(yīng)語音命令。通過將語音數(shù)據(jù)上傳到云端,輸入推斷芯片進行計算,再返回結(jié)果至本地來達到與人實現(xiàn)交互的目的。原先云端采用 CPU 進行推斷工作,由于算力低,識別中會有 300-400ms 的延遲,影響用戶體驗。
智能音箱通過云端推斷芯片工作
而現(xiàn)今 AWS 云中采用了 Nvidia 的 P40 推斷芯片,結(jié)合 Tensor RT 高性能神經(jīng)網(wǎng)絡(luò)推理引擎(一個 C++庫),可以將延遲縮減到 7ms。 此外, AI 芯片支持深度學(xué)習(xí),降低了語音識別錯誤率。 目前, 借助云端芯片的良好推斷能力,百度語音助手的語音識別準(zhǔn)確度已達到 97%之高。
Nvidia 云端推斷芯片提升語音識別速度
應(yīng)用場景#2:推斷芯片應(yīng)用于智能搜索
RankBrain 是 Google 眾多搜索算法的一部分,它是一套計算機程序,能把知識庫中上十億個頁面進行排序,然后找到與特定查詢最相關(guān)的結(jié)果。 目前, Google 每天要處理 30 億條搜索,而其中 15%的詞語是 Google 沒有見過的。 RankBrain 可以觀察到看似無關(guān)復(fù)雜搜索之間的模式,并理解它們實際上是如何彼此關(guān)聯(lián)的, 實現(xiàn)了對輸入的語義理解。 這種能力離不開 Google 云端推斷芯片 TPU 的輔助。
推斷芯片助力深度學(xué)習(xí)實現(xiàn)語義識別
先前,在沒有深度學(xué)習(xí)情況下,單純依靠 PageRanking 及 InvertedIndex, Google 也能實現(xiàn)一定程度的對搜索詞條排序的優(yōu)化,但準(zhǔn)確率不夠。 TPU 利用 RankBrain 中的深度學(xué)習(xí)模型,在 80%的情況下計算出的置頂詞條,均是人們最想要的結(jié)果。
TPU+RankBrain 在推斷正確率上獲得提高
用于智能手機的邊緣推斷芯片:競爭格局穩(wěn)定,傳統(tǒng)廠商持續(xù)受益
手機芯片市場目前包括:(1)蘋果,三星,華為這類采用芯片+整機垂直商業(yè)模式的廠商,以及(2)高通,聯(lián)發(fā)科,展銳等獨立芯片供應(yīng)商和(3) ARM, Synopsys、 Cadence 等向芯片企業(yè)提供獨立 IP 授權(quán)的供應(yīng)商。 采用垂直商業(yè)模式廠商的芯片不對外發(fā)售,只服務(wù)于自身品牌的整機,性能針對自身軟件做出了特殊優(yōu)化,靠效率取勝。獨立芯片供應(yīng)商以相對更強的性能指標(biāo),來獲得剩余廠商的市場份額。
從 2017 年開始,蘋果,華為海思,高通,聯(lián)發(fā)科等主要芯片廠商相繼發(fā)布支持 AI 加速功能的新一代芯片(如下圖), AI 芯片逐漸向中端產(chǎn)品滲透。由于手機空間有限, 獨立的AI 芯片很難被手機廠采用。在 AI 加速芯片設(shè)計能力上有先發(fā)優(yōu)勢的企業(yè)(如寒武紀(jì))一般通過 IP 授權(quán)的方式切入。
手機 AI 芯片對比
對這些廠商來說,我們認(rèn)為 AI 化的主要作用是提升芯片附加價值與產(chǎn)品單價。根據(jù) IHS的數(shù)據(jù),隨著硬件性能的增強及針對于 AI 的運算結(jié)構(gòu)不斷滲透,蘋果 A11 芯片的成本已達到 27.5 美元。
智能手機 SoC 市占率分析(2017)
芯片成本持續(xù)上漲有望帶動垂直模式廠商整機售價走高,在出貨量相同的情況下為現(xiàn)有芯片廠商貢獻更多的營業(yè)收入。高通、聯(lián)發(fā)科、展銳等獨立芯片供應(yīng)商則會受益于芯片本身 ASP 的提升。
歷代 Apple 手機芯片成本趨勢
應(yīng)用場景#1:推斷芯片為 AI 拍照技術(shù)提供硬件支持
智能手機通過 AI 算法+終端推斷芯片,可實現(xiàn)對于現(xiàn)實世界圖像的智能識別,并在此基礎(chǔ)上進行實時優(yōu)化:
1)從整個場景識別,到特殊優(yōu)化過程中,推斷芯片為算法運行提供硬件支持。
2)手機推斷芯片中 GPU、 NPU 等單元的協(xié)同工作,實現(xiàn)了對邊緣虛化更準(zhǔn)確的處理,使小尺寸感光元件的手機獲得“單反” 級的景深效果,增加相片的層次感。
3)人臉結(jié)構(gòu)的識別也離不開邊緣推斷芯片,芯片性能的提升直接導(dǎo)致了 AI 美顏、 3D 光效等特殊效果變得更加自然。 如果缺少終端芯片的支持,一旦運行高負(fù)載的 AI 任務(wù)手機就需要呼喚云端。而云端的相應(yīng)速度不夠,導(dǎo)致 AI 攝影的識別率和準(zhǔn)確率下降,用戶體驗將大打折扣。
手機 AI 芯片輔助圖片渲染優(yōu)化
應(yīng)用場景#2:推斷芯片助力語音助手處理復(fù)雜命令
從“聽清”到“聽懂”,自然語言理解能力提升與推斷芯片硬件的支持分不開:多麥克風(fēng)方案的普及解決了“聽清”的問題,而到“聽懂”的跨越中自然語言理解能力是關(guān)鍵。這不僅對云端訓(xùn)練好的模型質(zhì)量有很高要求,也必須用到推斷芯片大量的計算。隨著對話式 AI 算法的發(fā)展,手機 AI 芯片性能的提升,語音助手在識別語音模式、分辨模糊語音、剔除環(huán)境噪聲干擾等方面能力得到了優(yōu)化,可以接受理解更加復(fù)雜的語音命令。
手機 AI 芯片輔助 Vivo Jovi 處理復(fù)雜命令
用于安防邊緣推斷芯片: 海思、安霸與 Nvidia、 Mobileye 形成有力競爭
視頻監(jiān)控行業(yè)在過去十幾年主要經(jīng)歷了“高清化”、“網(wǎng)絡(luò)化”的兩次換代,而隨著 2016年以來 AI 在視頻分析領(lǐng)域的突破,目前視頻監(jiān)控行業(yè)正處于第三次重要升級周期——“智能化”的開始階段。 前端攝像頭裝備終端推斷芯片,可以實時對視頻數(shù)據(jù)進行結(jié)構(gòu)化處理,“云+邊緣”的邊緣計算解決方案逐漸滲透。 我們預(yù)計, 應(yīng)用安防攝像頭的推斷芯片市場規(guī)模,將從 2017 年的 3.3 億美元,增長至 2022 年的 18 億美元, CAGR~41%。
應(yīng)用場景:安防邊緣推斷芯片實現(xiàn)結(jié)構(gòu)化數(shù)據(jù)提取,減輕云端壓力
即便采用 H.265 編碼,目前每日從攝像機傳輸?shù)皆贫说臄?shù)據(jù)也在 20G 左右,不僅給存儲造成了很大的壓力,也增加了數(shù)據(jù)的傳輸時間。 邊緣推斷芯片在安防端的主要應(yīng)用,基于將視頻流在本地轉(zhuǎn)化為結(jié)構(gòu)化數(shù)據(jù)。 這樣既節(jié)省云端存儲空間, 也提升系統(tǒng)工作效率。“視頻結(jié)構(gòu)化”,簡言之即從視頻中結(jié)構(gòu)化提取關(guān)鍵目標(biāo),包括車輛、人及其特征等。雖然這種對數(shù)據(jù)的有效壓縮要通過算法實現(xiàn),但硬件的支持不可或缺。
視頻結(jié)構(gòu)化數(shù)據(jù)提取實例
根據(jù)海康威視提供傳統(tǒng)視頻解碼芯片廠商積極布局 AI 升級。 華為海思、安霸(Ambarella)都在近一年內(nèi)推出了支持 AI 的安防邊緣推斷芯片。海思的 HI3559A 配備了雙核神經(jīng)網(wǎng)絡(luò)加速引擎,并成為第一款支持 8k 視頻的芯片;安霸也通過集成 Cvflows 張量處理器到最新的 CV2S 芯片中,以實現(xiàn)對 CNN/DNN 算法的支持。
AI 芯片助力結(jié)構(gòu)化分析實現(xiàn)工作效率提升
打入視頻監(jiān)控解決方案龍頭??低暎瑢崿F(xiàn)前裝的 Nvidia,Movidius 同樣不甘示弱, Movidius 發(fā)布的最新產(chǎn)品 Myriad X 搭載神經(jīng)計算引擎,在 2W的功耗下可實現(xiàn) 1TOPS 的算力。Nvidia TX2 是 TX1 的升級產(chǎn)品,算力更強,達到 1.5TFLOPS,存儲能力也有提升。
安防 AI 芯片對比
我們認(rèn)為,目前整個安防 AI 芯片市場競爭格局穩(wěn)定,現(xiàn)有廠商憑借與下游客戶長期的合作,有望繼續(xù)受益于安防智能化的升級,屬于新進入者的市場空間有限。 安防 AI 芯片下游客戶穩(wěn)定,為海康威視、大華股份等視頻監(jiān)控解決方案提供商??蛻襞c傳統(tǒng)視頻解碼芯片廠商的長期合作具有粘性,同樣推出新產(chǎn)品,初創(chuàng)公司的競爭優(yōu)勢弱一些,尤其是在安防 AI 芯片性能差異化很難做到很大的情況下。
用于自動駕駛的邊緣推斷芯片:一片藍海,新競爭者有望突圍
除了智能手機, 安防外, 自動駕駛汽車也是人工智能的落地場景之一。 車用半導(dǎo)體強大需求已經(jīng)使供給端產(chǎn)能開始吃緊,而用于自動駕駛的推斷芯片需求,同樣有望在未來 5年內(nèi)實現(xiàn)高速增長。我們預(yù)計,其市場規(guī)模將從 2017 年的 8.5 億美元,增長至 2022 年的 52 億美元,CAGR~44%。若想使車輛實現(xiàn)真正的自動駕駛,要經(jīng)歷在感知-建模-決策三個階段,每個階段都離不開終端推斷芯片的計算。
應(yīng)用場景#1:自動駕駛芯片助力環(huán)境感知
在車輛感知周圍環(huán)境的過程中,融合各路傳感器的數(shù)據(jù)并進行分析是一項艱巨的工作,推斷芯片在其中起到了關(guān)鍵性作用。 我們首先要對各路獲得的“圖像”數(shù)據(jù)進行分類,在此基礎(chǔ)之上,以包圍盒的(bounding box) 形式辨別出圖像中的目標(biāo)具體在什么位置。
但這并不能滿足需求:車輛必須要辨別目標(biāo)到底是其他車輛,是標(biāo)志物,是信號燈,還是人等等,因為不同目標(biāo)的行為方式各異,其位置、狀態(tài)變化,會影響到車輛最終的決策,因而我們要對圖像進行語義分割(segmantation,自動駕駛的核心算法技術(shù))。語義分割的快慢和推斷芯片計算能力直接相關(guān),時延大的芯片很顯然存在安全隱患,不符合自動駕駛的要求。
自動駕駛推斷芯片+算法實現(xiàn)視頻的像素級語義分割
應(yīng)用場景#2:自動駕駛芯片助力避障規(guī)劃
避障規(guī)劃是車輛主要探測障礙物, 并對障礙物的移動軌跡跟蹤(Moving object detection and tracking,即 MODAT)做出下一步可能位臵的推算,最終繪制出一幅含有現(xiàn)存、及潛在風(fēng)險障礙物地圖的行為。出于安全的要求,這個風(fēng)險提示的時延應(yīng)該被控制在 50ms級。
隨著車速越來越快,無人車可行駛的路況越來越復(fù)雜,該數(shù)值在未來需要進一步縮短,對算法效率及推斷芯片的算力都是極大的挑戰(zhàn)。 例如,在復(fù)雜的城區(qū)路況下,所需算力可能超過 30TOPS。未來 V2X 地圖的加入,將基本上確保了無人車的主動安全性,但同樣對推斷芯片的性能提出了更高的要求。
自動駕駛推斷芯片+算法實現(xiàn)自動駕駛避障規(guī)劃
從以上應(yīng)用場景不難看出, 自動駕駛對芯片算力提出了很高的要求, 而受限于時延及可靠性,有關(guān)自動駕駛的計算不能在云端進行,因此邊緣推斷芯片升級勢在必行。根據(jù)豐田公司的統(tǒng)計數(shù)據(jù),實現(xiàn) L5 級完全自動駕駛,至少需要 12TOPS 的推斷算力,按現(xiàn)行先進的 Nvidia PX2 自動駕駛平臺測算,差不多需要 15 塊 PX2 車載計算機,才能滿足完全自動駕駛的需求。
自動駕駛算力需求加速芯片升級
傳統(tǒng)車載半導(dǎo)體廠商積極布局自動駕駛。 近些年來,各傳統(tǒng)車載半導(dǎo)體供應(yīng)商紛紛涉獵自動駕駛業(yè)務(wù),推出了各自的自動駕駛,或輔助駕駛平臺,如 TI 推出了面向于 L1/2 級的平價產(chǎn)品,而 Renesas 和 NXP 步入中高端市場。 V3M 與 Bluebox 分別是兩家的代表性產(chǎn)品,均滿足客戶 L3 級自動駕駛需求。目前 NXP 的 Bluebox 2.0 也在測試中。
老牌廠商中Mobileye(被 Intel 收購) 在自動駕駛邊緣推斷芯片上表現(xiàn)最為搶眼,其 EyeQ3 芯片已經(jīng)被集成于新一代量產(chǎn) Audi A8 中的 zFAS 平臺上,而 A8 也因此成為第一款支持 L3 級自動駕駛的車型。
下一代產(chǎn)品中, Mobileye 和新秀 Nvidia 有望實現(xiàn)領(lǐng)先。 Mobileye 更注重算法端, 強調(diào)軟硬件結(jié)合帶來的效率提升,其開發(fā)的最新 EyeQ5 芯片在 10W 的功耗下就能達到 24TOPS的算力。 英偉達作為傳統(tǒng)硬件廠商,借助于 GPU 圖形處理的優(yōu)勢,也在自動駕駛市場取得了相應(yīng)的領(lǐng)先地位,其芯片更注重絕對算力表現(xiàn)。將于今年三季度流片, 2019 年三季度量產(chǎn)的“算力怪獸” Pegasus 平臺,搭載了兩塊 Nvidia 下一代的 GPU,將實現(xiàn) 320TOPS的超強計算能力,完全覆蓋 L5 級別應(yīng)用的需求。
自動駕駛平臺對比
對比其他終端應(yīng)用場景,自動駕駛不僅計算復(fù)雜程度最高,車規(guī)級要求也為芯片設(shè)立了更高的準(zhǔn)入門檻, 其硬件升級落地相對緩慢。 目前各廠商下一代的自動駕駛平臺最早計劃于 2019 年量產(chǎn),現(xiàn)今上市平臺中,芯片大多只支持 L2/3 級。之前 Uber 的無人車事故,也對整個行業(yè)的發(fā)展造成了拖累。
下一代自動駕駛 AI 芯片流片及投產(chǎn)時間預(yù)估
自動駕駛芯片市場仍處于初期起步階段。 雖然 NXP 等傳統(tǒng)半導(dǎo)體廠商深耕于汽車電子多年,獲得了一定的客戶粘性,但在自動駕駛業(yè)務(wù)上,整個市場還未形成非常明顯的競爭格局。客戶也在不斷測試芯片廠商的產(chǎn)品,來實現(xiàn)最優(yōu)選擇。根據(jù)各公司披露的數(shù)據(jù),目前各大芯片廠商與整車廠(OEM)及 Tier 1 廠商都開展了緊密的合作,但客戶數(shù)量不相上下。
從客戶的偏好來看,傳統(tǒng)大廠愿意自行搭建平臺, 再采購所需芯片,而新車廠偏向于直接購買自動駕駛平臺。 介于實現(xiàn)完全自動駕駛非常復(fù)雜,目前還在起步階段,我們認(rèn)為初創(chuàng)公司在整個行業(yè)的發(fā)展中是有機會的,并看好技術(shù)領(lǐng)先,能與車廠達成密切合作的初創(chuàng)公司。
各芯片廠商合作方比較
主要中國 AI 芯片公司介紹
中國大陸目前有超 20 家企業(yè)投入 AI 芯片的研發(fā)中來。 除了像華為海思、紫光展銳這種深耕于芯片設(shè)計多年的企業(yè)之外,也有不少初創(chuàng)公司表現(xiàn)搶眼,如寒武紀(jì)、比特大陸等。此外,***地區(qū)的 GUC(創(chuàng)意電子)是一家 IC 后端設(shè)計公司,憑借 20 年的行業(yè)經(jīng)驗,和投資方晶圓制造巨頭臺積電的鼎力支持,在 AI 芯片高速發(fā)展的大環(huán)境下也有望受益。
中國大陸主要 AI 芯片設(shè)計公司至少有 20 家
以下企業(yè)值得關(guān)注:
海思半導(dǎo)體(Hisilicon)
海思半導(dǎo)體成立于 2004 年 10 月,是華為集團的全資子公司。海思的芯片產(chǎn)品覆蓋無線網(wǎng)絡(luò)、固網(wǎng)及數(shù)字媒體等多個領(lǐng)域,其 AI 芯片為 Kirin 970 手機 SoC 及安防芯片 Hi3559A V100。 Kirin 970 集成 NPU 神經(jīng)處理單元,是全球第一款手機 AI 芯片, 它在處理靜態(tài)神經(jīng)網(wǎng)絡(luò)模型方面有得天獨厚的優(yōu)勢。而 Hi3559A V100 是一款性能領(lǐng)先的支持 8k 視頻的 AI芯片。
清華紫光展銳 (Tsinghua UNISOC)
清華紫光集團于 2013 年、 2014 年先后完成對展訊及銳迪科微電子的收購, 2016 年再將二者合并,成立紫光展銳。紫光展銳是全球第三大手機基帶芯片設(shè)計公司,是中國領(lǐng)先的 5G 通信芯片企業(yè)。 Gartner 的數(shù)據(jù)顯示,紫光展銳手機基帶芯片 2017 年出貨量的全球占比為 11%。除此之外,展銳還擁有手機 AI 芯片業(yè)務(wù),推出了采用 8 核 ARM A55 處理器的人工智能 SoC 芯片 SC9863,支持基于深度神經(jīng)網(wǎng)絡(luò)的人臉識別技術(shù), AI 處理能力比上一代提升 6 倍。
GUC(***創(chuàng)意電子, 3443 TT)
公司介紹: GUC 是彈性客制化 IC 領(lǐng)導(dǎo)廠商(The Flexible ASIC LeaderTM),主要從事 IC 后端設(shè)計。后端設(shè)計工作以布局布線為起點,以生成可以送交晶圓廠進行流片的 GDS2 文件為終點,需要很多的經(jīng)驗,是芯片實現(xiàn)流片的重要一環(huán)。初創(chuàng)公司同時完成前后端設(shè)計難度較大。在 AI 芯片設(shè)計發(fā)展的大環(huán)境下,加上大股東臺積電的支持, GUC 有望獲得大的后端訂單。 公司已在***證券交易所掛牌上市,股票代號為 3443。
以下為初創(chuàng)公司:
寒武紀(jì)科技(Cambricon Technologies)
寒武紀(jì)創(chuàng)立于 2016 年 3 月,是中科院孵化的高科技企業(yè),主要投資人為國投創(chuàng)業(yè)和阿里巴巴等。公司產(chǎn)品分為終端 AI 芯片及云端 AI 芯片。終端 AI 芯片采用 IP 授權(quán)模式,其產(chǎn)品 Cambricon-1A 是全球首個實現(xiàn)商用的深度學(xué)習(xí)處理器 IP。去年年底公司新發(fā)布了第三代機器學(xué)習(xí)專用 IP Cambricon-1M,采用 7nm 工藝,性能差不多高出 1A 達 10 倍。云端產(chǎn)品上,寒武紀(jì)開發(fā)了 MLU 100 AI 芯片,支持訓(xùn)練和推斷,單位功耗算力表現(xiàn)突出。
比特大陸(Bitmain)
比特大陸成立于 2013 年 10 月, 是全球第一大比特幣礦機公司,目前占領(lǐng)了全球比特幣礦機 60%以上的市場。由于 AI 行業(yè)發(fā)展迅速及公司發(fā)展需要,公司將業(yè)務(wù)拓展至 AI 領(lǐng)域,并于與 2017 年推出云端 AI 芯片 BM1680,支持訓(xùn)練和推斷。目前公司已推出第二代產(chǎn)品BM1682,相較上一代性能提升 5 倍以上。
地平線機器人(Horizon Robotics)
成立于 2015 年 7 月,地平線是一家注重軟硬件結(jié)合的 AI 初創(chuàng)公司,由 Intel、嘉實資本、高瓴資本領(lǐng)投。公司主攻安防和自動駕駛兩個應(yīng)用場景,產(chǎn)品為征程 1.0 芯片(支持 L2自動駕駛)和旭日 1.0(用于安防智能攝像頭),具有高性能(實時處理 1080P@30 幀,并對每幀中的 200 個目標(biāo)進行檢測、跟蹤、識別)、低功耗(典型功耗在 1.5W)、和低延遲的優(yōu)勢(延遲小于 30 毫秒)。公司二代自動駕駛芯片將于 1Q19 流片,實現(xiàn)語義建模。
云天勵飛(Intellifusion)
公司創(chuàng)立于 2014 年 8 月,由山水從容傳媒、松禾資本領(lǐng)投,主攻安防 AI 芯片。其自研IPU 芯片是低功耗的深度學(xué)習(xí)專用處理器,內(nèi)含專用圖像處理加速引擎,通過級聯(lián)擴展最多可處理 64 路視頻。能耗比突出,超過 2Tops/Watt。
異構(gòu)智能(NovuMind)
異構(gòu)智能創(chuàng)立于 2015 年 8 月,由洪泰基金、寬帶資本、真格基金和英諾天使投資。 2018年公司展示了其首款云端 AI 芯片 NovuTensor,基于 FPGA 實現(xiàn),性能已達到目前最先進的桌面服務(wù)器 GPU 的一半以上,而耗電量僅有 1/20。公司即將推出的第二款 ASIC 芯片,能耗不超 5W, 計算性能達 15 TOPs,將被用于安防和自動駕駛應(yīng)用中。
龍加智(Dinoplus)
創(chuàng)立于 2017 年 7 月龍加智是專注于云端芯片的 AI 初創(chuàng)公司,由摯信資本和翊翎資本領(lǐng)投。其產(chǎn)品 Dino-TPU 在 75W 功耗下,計算能力超過除最新款 Nvidia Volta 之外的所有 GPU,時延僅為 Volta V100 的 1/10。同時, Dino-TPU 提供市場上獨一無二的冗余備份和數(shù)據(jù)安全保障。 公司計劃于 2018 年底完成第一款芯片的流片。
-
自動
+關(guān)注
關(guān)注
0文章
117瀏覽量
26020 -
AI芯片
+關(guān)注
關(guān)注
17文章
1850瀏覽量
34849
原文標(biāo)題:AI芯片最新格局分析
文章出處:【微信號:WW_CGQJS,微信公眾號:傳感器技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論