0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

從國外技術寡頭形勢入手,窺探國內人工智能前景

KIyT_gh_211d74f ? 來源:互聯網 ? 作者:佚名 ? 2018-04-08 09:24 ? 次閱讀

如果說 2016 年 3 月份 AlphaGo 與李世石的那場人機大戰(zhàn)只在科技界和圍棋界產生較大影響的話,那么 2017 年 5 月其與排名第一的世界圍棋冠軍柯潔的對戰(zhàn)則將人工智能技術推向了公眾視野。阿爾法狗(AlphaGo)是第一個擊敗人類職業(yè)圍棋選手、第一個戰(zhàn)勝圍棋世界冠軍的人工智能程序,由谷歌(Google)旗下 DeepMind 公司戴密斯 · 哈薩比斯領銜的團隊開發(fā),其主要工作原理是 “深度學習”。

其實早在 2012 年,深度學習技術就已經在學術界引起了廣泛地討論。在這一年的 ImageNet 大規(guī)模視覺識別挑戰(zhàn)賽 ILSVRC 中,采用 5 個卷積層和 3 個全連接層的神經網絡結構 AlexNet,取得了 top-5(15.3%)的歷史最佳錯誤率,而第二名的成績僅為 26.2%。從此以后,就出現了層數更多、結構更為復雜的神經網絡結構,如 ResNet、GoogleNet、VGGNet 和 MaskRCNN 等,還有去年比較火的生成式對抗網絡 GAN。

不論是贏得視覺識別挑戰(zhàn)賽的 AlexNet,還是擊敗圍棋冠軍柯潔的 AlphaGo,它們的實現都離不開現代信息技術的核心——處理器,不論這個處理器是傳統(tǒng)的 CPU,還是 GPU,還是新興的專用加速部件 NNPU(NNPU 是 Neural Network Processing Unit 的簡稱)。

在計算機體系結構國際頂級會議 ISCA2016 上有個關于體系結構 2030 的小型研討會,名人堂成員 UCSB 的謝源教授就對 1991 年以來在 ISCA 收錄的論文進行了總結,專用加速部件相關的論文收錄是在 2008 年開始,而在 2016 年達到了頂峰,超過了處理器、存儲器以及互聯結構等三大傳統(tǒng)領域。而在這一年,來自中國科學院計算技術研究所的陳云霽、陳天石研究員課題組提交的《一種神經網絡指令集》論文,更是 ISCA2016 最高得分論文。

在具體介紹 AI 芯片國內外之前,看到這里有部分讀者或許會產生這樣的疑惑:這不都是在說神經網絡和深度學習嗎?那么我覺得有必要對人工智能和神經網絡的概念進行闡述,特別是 2017 年工信部發(fā)布的《促進新一代人工智能產業(yè)發(fā)展三年行動計劃(2018-2020 年)》中,對發(fā)展目標的描述很容易讓人覺得人工智能就是神經網絡,AI 芯片就是神經網絡芯片。

人工智能整體核心基礎能力顯著增強,智能傳感器技術產品實現突破,設計、代工、封測技術達到國際水平,神經網絡芯片實現量產并在重點領域實現規(guī)模化應用,開源開發(fā)平臺初步具備支撐產業(yè)快速發(fā)展的能力。

其實則不然。人工智能是一個很老很老的概念,而神經網絡只不過是人工智能范疇的一個子集。

早在1956 年,被譽為 “人工智能之父” 的圖靈獎得主約翰 · 麥卡錫就這樣定義人工智能:創(chuàng)造智能機器的科學與工程。而在 1959 年,Arthur Samuel 給出了人工智能的一個子領域機器學習的定義,即“計算機有能力去學習,而不是通過預先準確實現的代碼”,這也是目前公認的對機器學習最早最準確的定義。而我們日常所熟知的神經網絡、深度學習等都屬于機器學習的范疇,都是受大腦機理啟發(fā)而發(fā)展得來的。

另外一個比較重要的研究領域就是脈沖神經網絡,國內具有代表的單位和企業(yè)是清華大學類腦計算研究中心和上海西井科技等。

好了,現在終于可以介紹 AI 芯片國內外的發(fā)展現狀了,當然這些都是我個人的一點觀察和愚見,管窺之見權當拋磚引玉。

國外:技術寡頭,優(yōu)勢明顯

由于具有得天獨厚的技術和應用優(yōu)勢,英偉達和谷歌幾乎占據了人工智能處理領域80% 的市場份額,而且在谷歌宣布其 Cloud TPU 開放服務和英偉達推出自動駕駛處理器 Xavier之后,這一份額占比在2018 年有望進一步擴大。其他廠商,如英特爾、特斯拉ARM、IBM 以及 Cadence 等,也在人工智能處理器領域占有一席之地。

當然,上述這些公司的專注領域卻不盡相同。比如英偉達主要專注于GPU 和無人駕駛領域,而谷歌則主要針對云端市場,英特爾則主要面向計算機視覺,Cadence 則以提供加速神經網絡計算相關 IP 為主。如果說前述這些公司還主要偏向處理器設計等硬件領域,那么ARM 公司則主要偏向軟件,致力于針對機器學習和人工智能提供高效算法庫。

注:上述表格中所給為截止到2017 年各研制單位公開可查的最新數據。

獨占鰲頭——英偉達

在人工智能領域,英偉達可以說是目前涉及面最廣、市場份額最大的公司,旗下產品線遍布自動駕駛汽車、高性能計算、機器人、醫(yī)療保健、云計算、游戲視頻等眾多領域。其針對自動駕駛汽車領域的全新人工智能超級計算機Xavier,用 NVIDIA 首席執(zhí)行官黃仁勛的話來說就是 “這是我所知道的 SoC 領域非常了不起的嘗試,我們長期以來一直致力于開發(fā)芯片?!?/span>

Xavier是一款完整的片上系統(tǒng)(SoC),集成了被稱為 Volta 的全新 GPU 架構、定制 8 核 CPU 架構以及新的計算機視覺加速器。該處理器提供 20 TOPS(萬億次運算 / 秒)的高性能,而功耗僅為 20 瓦。單個 Xavier 人工智能處理器包含 70 億個晶體管,采用最前沿的 16nm FinFET 加工技術進行制造,能夠取代目前配置了兩個移動 SoC 和兩個獨立 GPU 的 DRIVE PX 2,而功耗僅僅是它的一小部分。

而在 2018 年拉斯維加斯 CES 展會上,NVIDIA 又推出了三款基于 Xavier 的人工智能處理器,包括一款專注于將增強現實(AR)技術應用于汽車的產品、一款進一步簡化車內人工智能助手構建和部署的 DRIVE IX 和一款對其現有自主出租車大腦——Pegasus 的修改,進一步擴大自己的優(yōu)勢。

產學研的集大成者——谷歌

如果你只是知道谷歌的AlphaGo、無人駕駛和 TPU 等這些人工智能相關的產品,那么你還應該知道這些產品背后的技術大牛們:谷歌傳奇芯片工程師 Jeff Dean、谷歌云計算團隊首席科學家、斯坦福大學 AI 實驗室主管李飛飛、Alphabet 董事長 John Hennessy 和谷歌杰出工程師 David Patterson。

時至今日,摩爾定律遇到了技術和經濟上的雙重瓶頸,處理器性能的增長速度越來越慢,然而社會對于計算能力的需求增速卻并未減緩,甚至在移動應用、大數據、人工智能等新的應用興起后,對于計算能力、計算功耗和計算成本等提出了新的要求。

與完全依賴于通用CPU 及其編程模型的傳統(tǒng)軟件編寫模式不同,異構計算的整個系統(tǒng)包含了多種基于特定領域架構(Domain-Specific Architecture, DSA)設計的處理單元,每一個 DSA 處理單元都有負責的獨特領域并針對該領域做優(yōu)化,當計算機系統(tǒng)遇到相關計算時便由相應的 DSA 處理器去負責。而谷歌就是異構計算的踐行者,TPU就是異構計算在人工智能應用的一個很好例子。

2017 年發(fā)布的第二代 TPU 芯片,不僅加深了人工智能在學習和推理方面的能力,而且谷歌是認真地要將它推向市場。根據谷歌的內部測試,第二代芯片針對機器學習的訓練速度能比現在市場上的圖形芯片(GPU)節(jié)省一半時間;第二代 TPU 包括了四個芯片,每秒可處理 180 萬億次浮點運算;如果將 64 個 TPU 組合到一起,升級為所謂的 TPU Pods,則可提供大約 11500 萬億次浮點運算能力。

計算機視覺領域的攪局者——英特爾

英特爾作為世界上最大的計算機芯片制造商,近年來一直在尋求計算機以外的市場,其中人工智能芯片爭奪成為英特爾的核心戰(zhàn)略之一。為了加強在人工智能芯片領域的實力,不僅以 167 億美元收購 FPGA 生產商 Altera 公司,還以 153 億美元收購自動駕駛技術公司 Mobileye,以及機器視覺公司 Movidius 和為自動駕駛汽車芯片提供安全工具的公司 Yogitech,背后凸顯這家在 PC 時代處于核心位置的巨頭面向未來的積極轉型。

Myriad X就是英特爾子公司Movidius 在 2017 年推出的視覺處理器 (VPU,vision processing unit),這是一款低功耗的系統(tǒng)芯片 (SoC),用于在基于視覺的設備上加速深度學習和人工智能——如無人機、智能相機和 VR / AR 頭盔。

Myriad X 是全球第一個配備專用神經網絡計算引擎的片上系統(tǒng)芯片(SoC),用于加速設備端的深度學習推理計算。該神經網絡計算引擎是芯片上集成的硬件模塊,專為高速、低功耗且不犧牲精確度地運行基于深度學習的神經網絡而設計,讓設備能夠實時地看到、理解和響應周圍環(huán)境。引入該神經計算引擎之后,Myriad X 架構能夠為基于深度學習的神經網絡推理提供 1TOPS 的計算性能。

執(zhí) “能效比” 之牛耳——學術界

除了工業(yè)界和廠商在人工智能領域不斷推出新產品之外,學術界也在持續(xù)推進人工智能芯片新技術的發(fā)展。

比利時魯汶大學的Bert Moons 等在2017 年頂級會議 IEEE ISSCC 上面提出了能效比高達 10.0TOPs/W 的針對卷積神經網絡加速的芯片ENVISION,該芯片采用 28nm FD-SOI 技術。該芯片包括一個 16 位的 RISC 處理器核,1D-SIMD 處理單元進行 ReLU 和 Pooling 操作,2D-SIMD MAC 陣列處理卷積層和全連接層的操作,還有 128KB 的片上存儲器。

韓國科學技術院KAIST 的Dongjoo Shin 等人在 ISSCC2017 上提出了一個針對 CNN 和 RNN 結構可配置的加速器單元 DNPU,除了包含一個RISC 核之外,還包括了一個針對卷積層操作的計算陣列 CP 和一個針對全連接層 RNN-LSTM 操作的計算陣列 FRP,相比于魯汶大學的 Envision,DNPU 支持 CNN 和 RNN 結構,能效比高達 8.1TOPS/W。該芯片采用了 65nm CMOS 工藝。

相比較于魯汶大學和韓國科學技術院都針對神經網絡推理部分的計算操作來說,普渡大學的Venkataramani S 等人在計算機體系結構頂級會議 ISCA2017 上提出了針對大規(guī)模神經網絡訓練的人工智能處理器SCALLDEEP。

該論文針對深度神經網絡的訓練部分進行針對性優(yōu)化,提出了一個可擴展服務器架構,且深入分析了深度神經網絡中卷積層,采樣層,全連接層等在計算密集度和訪存密集度方面的不同,設計了兩種處理器core 架構,計算密集型的任務放在了 comHeavy 核中,包含大量的 2D 乘法器和累加器部件,而對于訪存密集型任務則放在了 memHeavy 核中,包含大量 SPM 存儲器和 tracker 同步單元,既可以作為存儲單元使用,又可以進行計算操作,包括 ReLU,tanh 等。而一個 SCALEDEEP Chip 則可以有不同配置下的兩類處理器核組成,然后再組成計算簇。

論文中所用的處理平臺包括 7032 個處理器 tile。論文作者針對深度神經網絡設計了編譯器,完成網絡映射和代碼生成,同時設計了設計空間探索的模擬器平臺,可以進行性能和功耗的評估,性能則得益于時鐘精確級的模擬器,功耗評估則從 DC 中提取模塊的網表級的參數模型。該芯片僅采用了 Intel 14nm 工藝進行了綜合和性能評估,峰值能效比高達 485.7GOPS/W。

國內:百家爭鳴,各自為政

可以說,國內各個單位在人工智能處理器領域的發(fā)展和應用與國外相比依然存在很大的差距。由于我國特殊的環(huán)境和市場,國內人工智能處理器的發(fā)展呈現出百花齊放、百家爭鳴的態(tài)勢,這些單位的應用領域遍布股票交易、金融、商品推薦、安防、早教機器人以及無人駕駛等眾多領域,催生了大量的人工智能芯片創(chuàng)業(yè)公司,如地平線、深鑒科技、中科寒武紀等。

盡管如此,國內起步較早的中科寒武紀卻并未如國外大廠一樣形成市場規(guī)模,與其他廠商一樣,存在著各自為政的散裂發(fā)展現狀。

除了新興創(chuàng)業(yè)公司,國內研究機構如北京大學、清華大學、中國科學院等在人工智能處理器領域都有深入研究;而其他公司如百度和比特大陸等,2017 年也有一些成果發(fā)布。

全球 AI 芯片界首個獨角獸——寒武紀

2017 年 8 月,國內 AI 芯片初創(chuàng)公司寒武紀宣布已經完成 1 億美元 A 輪融資,戰(zhàn)略投資方可謂陣容豪華,阿里巴巴、聯想、科大訊飛等企業(yè)均參與投資。而其公司也成為全球 AI 芯片界首個獨角獸,受到國內外市場廣泛關注。

寒武紀科技主要負責研發(fā)生產AI 芯片,公司最主要的產品為 2016 年發(fā)布的寒武紀1A 處理器 (Cambricon-1A),是一款可以深度學習的神經網絡專用處理器,面向智能手機、無人機、安防監(jiān)控、可穿戴設備以及智能駕駛等各類終端設備,在運行主流智能算法時性能功耗比全面超越傳統(tǒng)處理器。目前已經研發(fā)出1A、1H 等多種型號。

與此同時,寒武紀也推出了面向開發(fā)者的寒武紀人工智能軟件平臺 Cambricon NeuWare,包含開發(fā)、調試和調優(yōu)三大部分。

軟硬件協(xié)同發(fā)展的典范——深鑒科技

深鑒科技的聯合創(chuàng)始人韓松在不同場合曾多次提及軟硬件協(xié)同設計對人工智能處理器的重要性,而其在FPGA 領域頂級會議 FPGA2017 最佳論文 ESE 硬件架構就是最好的證明。該項工作聚焦于使用LSTM 進行語音識別的場景,結合深度壓縮(Deep Compression)、專用編譯器以及 ESE 專用處理器架構,在中端的 FPGA 上即可取得比 Pascal Titan X GPU 高 3 倍的性能,并將功耗降低 3.5 倍。

在 2017 年 10 月的時候,深鑒科技推出了六款 AI 產品,分別是人臉檢測識別模組、人臉分析解決方案、視頻結構化解決方案、ARISTOTLE 架構平臺,深度學習 SDK DNNDK、雙目深度視覺套件。而在人工智能芯片方面,公布了最新的芯片計劃,由深鑒科技自主研發(fā)的芯片 “聽濤”、“觀?!?將于 2018 年第三季度面市,該芯片采用臺積電 28nm 工藝,亞里士多德架構,峰值性能 3.7 TOPS/W。

對標谷歌 TPU——比特大陸算豐

作為比特幣獨角獸的比特大陸,在2015 年開始涉足人工智能領域,其在 2017 年發(fā)布的面向 AI 應用的張量處理器算豐 Sophon BM1680,是繼谷歌TPU 之后,全球又一款專門用于張量計算加速的專用芯片(ASIC),適用于 CNN / RNN / DNN 的訓練和推理。

BM1680 單芯片能夠提供 2TFlops 單精度加速計算能力,芯片由 64 NPU 構成,特殊設計的 NPU 調度引擎(Scheduling Engine)可以提供強大的數據吞吐能力,將數據輸入到神經元核心(Neuron Processor Cores)。BM1680 采用改進型脈動陣列結構。2018 年比特大陸將發(fā)布第 2 代算豐 AI 芯片 BM1682,計算力將有大幅提升。

百家爭鳴——百度、地平線及其他

在 2017 年的 HotChips 大會上,百度發(fā)布了XPU,這是一款 256 核、基于 FPGA 的云計算加速芯片,用于百度的人工智能、數據分析、云計算以及無人駕駛業(yè)務。在會上,百度研究員歐陽劍表示,百度設計的芯片架構突出多樣性,著重于計算密集型、基于規(guī)則的任務,同時確保效率、性能和靈活性的最大化。

歐陽劍表示:“FPGA 是高效的,可以專注于特定計算任務,但缺乏可編程能力。傳統(tǒng) CPU 擅長通用計算任務,尤其是基于規(guī)則的計算任務,同時非常靈活。GPU 瞄準了并行計算,因此有很強大的性能。XPU 則關注計算密集型、基于規(guī)則的多樣化計算任務,希望提高效率和性能,并帶來類似 CPU 的靈活性。

在 2018 年百度披露更多關于 XPU 的相關信息。

2017 年 12 月底,人工智能初創(chuàng)企業(yè)地平線發(fā)布了中國首款全球領先的嵌入式人工智能芯片——面向智能駕駛的征程(Journey)1.0 處理器和面向智能攝像頭的旭日(Sunrise)1.0 處理器,還有針對智能駕駛、智能城市和智能商業(yè)三大應用場景的人工智能解決方案?!靶袢?1.0”和 “征程 1.0” 是完全由地平線自主研發(fā)的人工智能芯片,具有全球領先的性能。

為了解決應用場景中的問題,地平線將算法與芯片做了強耦合,用算法來定義芯片,提升芯片的效率,在高性能的情況下可以保證它的低功耗、低成本。具體芯片參數尚無公開數據。

除了百度和地平線,國內研究機構如中國科學院、北京大學和清華大學也有人工智能處理器相關的成果發(fā)布。

北京大學聯合商湯科技等提出一種基于 FPGA 的快速 Winograd 算法,可以大幅降低算法復雜度,改善 FPGA 上的 CNN 性能。

論文中的實驗使用當前最優(yōu)的多種 CNN 架構(如 AlexNet 和 VGG16),從而實現了 FPGA 加速之下的最優(yōu)性能和能耗。在 Xilinx ZCU102 平臺上達到了卷積層平均處理速度 1006.4 GOP/s,整體 AlexNet 處理速度 854.6 GOP/s,卷積層平均處理速度 3044.7 GOP/s,整體 VGG16 的處理速度 2940.7 GOP/s。

中國科學院計算機體系結構國家重點實驗室在頂級會議HPCA2017 上提出了一種基于數據流的神經網絡處理器架構,以便適應特征圖、神經元和突觸等不同層級的并行計算,為了實現這一目標,該團隊對單個處理單元 PE 進行重新設計,使得操作數可以直接通過橫向或縱向的總線從片上存儲器獲取,而非傳統(tǒng) PE 只能從上至下或從左至右由相鄰單元獲取。該芯片采用了 TMSC 65nm 工藝,峰值性能為 490.7 GOPs/W。

清華大學微納電子系魏少軍等2017 年的 VLSI 國際研討會上提出了基于可重構多模態(tài)混合的神經計算芯片 Thinker。Thinker 芯片基于該團隊長期積累的可重構計算芯片技術,采用可重構架構和電路技術,突破了神經網絡計算和訪存的瓶頸,實現了高能效多模態(tài)混合神經網絡計算。

Thinker 芯片具有高能效的突出優(yōu)點,其能量效率相比目前在深度學習中廣泛使用的 GPU 提升了三個數量級。Thinker 芯片支持電路級編程和重構,是一個通用的神經網絡計算平臺,可廣泛應用于機器人、無人機、智能汽車、智慧家居、安防監(jiān)控和消費電子等領域。該芯片采用了 TSMC 65nm 工藝,片上存儲為 348KB,峰值性能為 5.09TOPS/W。

新架構新技術——憶阻器

2017 年清華大學微電子所錢鶴、吳華強課題組在《自然通訊》(Nature Communications)在線發(fā)表了題為“運用電子突觸進行人臉分類”(“Face Classification using Electronic Synapses”)的研究成果,將氧化物憶阻器的集成規(guī)模提高了一個數量級,首次實現了基于 1024 個氧化物憶阻器陣列的類腦計算。

該成果在最基本的單個憶阻器上實現了存儲和計算的融合,采用完全不同于傳統(tǒng)“馮 · 諾依曼架構” 的體系,可以使芯片功耗降低到原千分之一以下。憶阻器被認為是最具潛力的電子突觸器件,通過在器件兩端施加電壓,可以靈活地改變其阻值狀態(tài),從而實現突觸的可塑性。

此外,憶阻器還具有尺寸小、操作功耗低、可大規(guī)模集成等優(yōu)勢。因此,基于憶阻器所搭建的類腦計算硬件系統(tǒng)具有功耗低和速度快的優(yōu)勢,成為國際研究熱點。

在神經形態(tài)處理器方面,最為著名的就是 IBM 在 2014 年推出的 TrueNorth 芯片,該芯片包括 4096 個核心和 540 萬個晶體管,功耗 70mW,模擬了一百萬個神經元和 2.56 億個突觸。

而在 2017 年,英特爾也推出一款能模擬大腦工作的自主學習芯片 Loihi,Loihi 由 128 個計算核心構成,每個核心集成了 1024 個人工神經元,整個芯片擁有超過個 13 萬個神經元與 1.3 億個突觸連接,與人腦超過 800 億個神經元相比,簡直是小巫見大巫,Loihi 的運算規(guī)模僅比蝦腦復雜一點點而已。

英特爾認為該芯片適用于無人機與汽車自動駕駛,紅綠燈自適應路面交通狀況,用攝像頭尋找失蹤人口等任務。

而在神經形態(tài)芯片研究領域,清華大學類腦計算研究中心施路平等在 2015 年就推出了首款類腦芯片—“天機芯”,該芯片世界首次將人工神經網絡(Artificial Neural Networks, ANNs)和脈沖神經網絡(Spiking Neural Networks,SNNs)進行異構融合,同時兼顧技術成熟并被廣泛應用的深度學習模型與未來具有巨大前景的計算神經科學模型,可用于諸如圖像處理、語音識別、目標跟蹤等多種應用開發(fā)。

在類腦 “自行” 車演示平臺上,集成 32 個天機一號芯片,實現了面向視覺目標探測、感知、目標追蹤、自適應姿態(tài)控制等任務的跨模態(tài)類腦信息處理實驗。據悉,基于 TSMC 28nm 工藝的第二代天機芯片也即將推出,性能將會得到極大提升。

從 ISSCC2018 看人工智能芯片發(fā)展趨勢

在剛剛結束的計算機體系結構頂級會議 ISSCC2018,“Digital Systems: Digital Architectures and Systems” 分論壇主席 Byeong-Gyu Nam 對人工智能芯片,特別是深度學習芯片的發(fā)展趨勢做了概括。深度學習依然今年大會最為熱門的話題。

相比較于去年大多數論文都在討論卷積神經網絡的實現問題,今年則更加關注兩個問題:其一,如果更高效地實現卷積神經網絡,特別是針對手持終端等設備;其二,則是關于全連接的非卷積神經網絡,如 RNN 和 LSTM 等。

同時,為了獲得更高的能效比,越來越多的研究者把精力放在了低精度神經網絡的設計和實現,如 1bit 的神經網絡。這些新型技術,使得深度學習加速器的能效比從去年的幾十 TOPS/W 提升到了今年的上百 TOPS/W。有些研究者也對數字 + 模擬的混合信號處理實現方案進行了研究。對數據存取具有較高要求的全連接網絡,有些研究者則借助 3-D 封裝技術來獲得更好的性能。

總結:對國產人工智能芯片的一點愚見

正如前文所述,在人工智能芯片領域,國外芯片巨頭占據了絕大部分市場份額,不論是在人才聚集還是公司合并等方面,都具有絕對的領先優(yōu)勢。而國內人工智能初創(chuàng)公司則又呈現百家爭鳴、各自為政的紛亂局面;特別是每個初創(chuàng)企業(yè)的人工智能芯片都具有自己獨特的體系結構和軟件開發(fā)套件,既無法融入英偉達和谷歌建立的生態(tài)圈,又不具備與之抗衡的實力。

國產人工智能芯片的發(fā)展,一如早年間國產通用處理器和操作系統(tǒng)的發(fā)展,過份地追求完全獨立、自主可控的怪圈,勢必會如眾多國產芯片一樣逐漸退出歷史舞臺。借助于 X86 的完整生態(tài),短短一年之內,兆芯推出的國產自主可控 x86 處理器,以及聯想基于兆芯 CPU 設計生產的國產計算機、服務器就獲得全國各地黨政辦公人員的高度認可,并在黨政軍辦公、信息化等國家重點系統(tǒng)和工程中已獲批量應用。

當然,投身于 X86 的生態(tài)圈對于通用桌面處理器和高端服務器芯片來說無可厚非,畢竟創(chuàng)造一個如 Wintel 一樣的生態(tài)鏈已絕非易事,我們也不可能遇見第二個喬布斯和蘋果公司。

而在全新的人工智能芯片領域,對眾多國產芯片廠商來說,還有很大的發(fā)展空間,針對神經網絡加速器最重要的就是找到一個具有廣闊前景的應用領域,如華為海思麒麟處理器之于中科寒武紀的 NPU;否則還是需要融入一個合適的生態(tài)圈。

另外,目前大多數國產人工智能處理器都針對于神經網絡計算進行加速,而能夠提供單芯片解決方案的很少;微控制器領域的發(fā)展,ARM 的 Cortex-A 系列和 Cortex-M 系列占據主角,但是新興的開源指令集架構 RISC-V 也不容小覷,完全值得眾多國產芯片廠商關注。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    27

    文章

    4591

    瀏覽量

    128144
  • 人工智能
    +關注

    關注

    1787

    文章

    46061

    瀏覽量

    235016
  • 英偉達
    +關注

    關注

    22

    文章

    3637

    瀏覽量

    89854

原文標題:國內AI芯片百家爭鳴,何以抗衡全球技術寡頭

文章出處:【微信號:gh_211d74f707ff,微信公眾號:重慶人工智能】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    人工智能ai4s試讀申請

    目前人工智能在繪畫對話等大模型領域應用廣闊,ai4s也是方興未艾。但是如何有效利用ai4s工具助力科研是個需要研究的課題,本書對ai4s基本原理和原則,方法進行描訴,有利于總結經驗,擬按照要求準備相關體會材料。看能否有助于入門和提高ss
    發(fā)表于 09-09 15:36

    【書籍評測活動NO.44】AI for Science:人工智能驅動科學創(chuàng)新

    ,以及大力發(fā)展AI for Science的原因。 第2章科學研究底層的理論模式與主要困境,以及人工智能三要素(數據、算法、算力)出發(fā),對AI for Science的技術支撐進行解讀。 第3章介紹
    發(fā)表于 09-09 13:54

    報名開啟!深圳(國際)通用人工智能大會將啟幕,國內外大咖齊聚話AI

    ,得到了華為、騰訊、優(yōu)必選、中煤科工、中國聯通、云天勵飛、考拉悠然、智航、力維智聯等國內人工智能企業(yè)的深度參與和大力支持。 報名后即可到現場領取禮品,總計5000份,先到先選! 點擊報名:https://bbs.elecfans.com/jishu_2447254_1_1.html
    發(fā)表于 08-22 15:00

    Commvault任命Pranay Ahlawat為首席技術人工智能

    領導持續(xù)的產品和人工智能創(chuàng)新,幫助客戶安全、負責任地應對不斷變化的威脅形勢 新任命 中國北京,2024年7月29日——混合云網絡彈性和數據保護解決方案的領先提供商Commvault(納斯達克代碼
    發(fā)表于 08-07 09:45 ?127次閱讀
    Commvault任命Pranay Ahlawat為首席<b class='flag-5'>技術</b>和<b class='flag-5'>人工智能</b>官

    FPGA在人工智能中的應用有哪些?

    定制化的硬件設計,提高了硬件的靈活性和適應性。 綜上所述,FPGA在人工智能領域的應用前景廣闊,不僅可以用于深度學習的加速和云計算的加速,還可以針對特定應用場景進行定制化計算,為人工智能技術的發(fā)展提供有力支持。
    發(fā)表于 07-29 17:05

    人工智能駕駛技術包括哪些技術

    人工智能駕駛技術,也稱為自動駕駛技術,是一種利用計算機視覺、機器學習、人工智能等多種先進技術,使汽車在無人干預的情況下自主行駛的
    的頭像 發(fā)表于 07-23 16:31 ?349次閱讀

    5G智能物聯網課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V2)

    Aidlite-SDK模型推理 https://v2.docs.aidlux.com/sdk-api/aidlite-sdk/aidlite-python 人工智能 5G AIoT技術實踐入門與探索_V2 59分
    發(fā)表于 05-10 16:46

    5G智能物聯網課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V1)

    課程類別 課程名稱 視頻課程時長 視頻課程鏈接 課件鏈接 人工智能 參賽基礎知識指引 14分50秒 https://t.elecfans.com/v/25508.html *附件:參賽基礎知識指引
    發(fā)表于 04-01 10:40

    國內首個生成式人工智能安全技術文件發(fā)布,燧原科技深度參編

    近日,全國網絡安全標準化技術委員會(TC260)正式發(fā)布了《生成式人工智能服務安全基本要求》(以下簡稱《基本要求》),是國內首個面向AIGC服務安全領域的技術文件,將有助于提高生成式
    的頭像 發(fā)表于 03-12 10:35 ?554次閱讀
    <b class='flag-5'>國內</b>首個生成式<b class='flag-5'>人工智能</b>安全<b class='flag-5'>技術</b>文件發(fā)布,燧原科技深度參編

    嵌入式人工智能的就業(yè)方向有哪些?

    國內外科技巨頭紛紛爭先入局,在微軟、谷歌、蘋果、臉書等積極布局人工智能的同時,國內的BAT、華為、小米等科技公司也相繼切入到嵌入式人工智能的賽道。那么嵌入式AI可就業(yè)的方向有哪些呢
    發(fā)表于 02-26 10:17

    云天勵飛推動人工智能產業(yè)發(fā)展

    日前,上交所舉辦科創(chuàng)板新質生產力行業(yè)沙龍第三期,聚焦人工智能領域,云天勵飛董事長兼CEO陳寧博士受邀出席會議,與其他人工智能代表企業(yè)、多家證券公司、基金管理公司、QFII等機構齊聚一堂,深入交流國內人工智能
    的頭像 發(fā)表于 01-29 10:54 ?548次閱讀

    人工智能技術的優(yōu)勢有哪些

    人工智能技術的優(yōu)勢
    的頭像 發(fā)表于 01-19 15:58 ?2788次閱讀

    人工智能大模型、應用場景、應用部署教程超詳細資料

    人工智能是IC行業(yè)近幾年的熱詞,目前此技術已經有很多成熟的模型和落地案例。在此跟大家做個分享,更多詳細資料,請自行搜索:【展銳坦克邦】,坦克邦-智算天地集算法模型、部署說明于一體,為廣大客戶提供了
    發(fā)表于 11-13 14:49

    如何使單片機與無線供電結合,從而使人工智能脫離電池和線路?

    如何使單片機與無線供電結合,從而使人工智能脫離電池和線路
    發(fā)表于 10-31 06:34

    物聯網專業(yè)前景怎么樣?

    物聯網專業(yè)前景怎么樣? 物聯網專業(yè)在當今技術發(fā)展迅速的背景下具有廣闊的前景。以下是物聯網專業(yè)的一些優(yōu)勢和就業(yè)前景: 1.市場需求大:物聯網作為人工
    發(fā)表于 10-20 09:48