0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

將ML模型推向邊緣實現(xiàn)了AI的新用例

星星科技指導員 ? 來源:mouser ? 作者: Mark Patrick ? 2023-05-09 09:51 ? 次閱讀

AI推向邊緣的影響

在上一篇文章中,我們探索了將AI推向網(wǎng)絡邊緣的一些有力論點。本篇連載文章中,我們將討論哪些AI應用能真正從這種方法中受益。首先,回顧一下在網(wǎng)絡邊緣實施AI的原因可以提供一些重要提示。請查看以下任何一項是否適用于項目:

無法訪問快速、穩(wěn)定的網(wǎng)絡連接
產(chǎn)品在受限環(huán)境中運行
項目需要交付實時AI
可用預算有限

考慮到上述因素,通過在邊緣運行ML模型可以使哪些具體的AI項目更容易運行?

虛擬助手

Apple在2010年推出Siri,一如既往地再次引領了潮流。這為其他許多虛擬助手鋪平了道路,其中最著名的便是亞馬遜的Alexa和Google Assistant。虛擬助手使科幻風格的語音控制成為現(xiàn)實,并通過以下方式工作:

1. 首先要說一個喚醒詞或啟動語音助手。對于Amazon Echo這樣的獨立式設備,則會不斷監(jiān)聽喚醒詞,并使用簡單的語音模式匹配在本地進行處理。這就是為什么Alexa僅識別特定喚醒詞(Alexa、Amazon、Echo和計算機)的原因;
2. 設備現(xiàn)在連接到云端服務器,并發(fā)送收聽內(nèi)容的錄音;
3. 云服務器運行語音到文本ML模型,將錄制的語音轉(zhuǎn)換為自然語言文本塊;
4. 文本則會借助自然語言處理解析以提取含義;
5. 服務器會計算出所請求的內(nèi)容,然后將適當?shù)拿罨騼?nèi)容發(fā)送回設備。

通過將ML模型移到邊緣來增進這種體驗的方式顯而易見:語音助手將具有更快的響應速度、不需要連接到互聯(lián)網(wǎng)即可嵌入語音控制。也就是說,被調(diào)用的應用程序本身可能需要網(wǎng)絡連接(例如音樂流媒體服務)。

面部識別

面部識別是發(fā)展速度最快的AI應用之一。這一技術(shù)仍在發(fā)展,一路上小問題不斷。例如,兩年前,亞馬遜旗下的Rekognition深陷種族主義的爭議和指控之中。這套系統(tǒng)在接受了2.5萬張圖像的訓練后,錯誤地將28個美國少數(shù)族裔議員識別為臭名遠播的罪犯。1

2019年,英國最大的警察機關大都會警察局 (Met) 對面部識別技術(shù)進行了早期試驗,結(jié)果顯示這項技術(shù)在81%的時候都不準確。但是,最新的面部識別系統(tǒng)正在變得越來越準確。Met今年年初宣布將在大型活動中采用這項技術(shù)掃描已證實的鬧事者。

許多需要面部識別的用例都需要這項技術(shù)近乎實時地工作。因此,應用程序更依賴于將ML模型移動到網(wǎng)絡邊緣。Met所采用的系統(tǒng)基于NEC NeoFace Watch,它是完全獨立的設備,并具備實時工作能力。NEC的技術(shù)還瞄準了其他幾個市場,包括零售、企業(yè)活動、節(jié)日和其他大型活動以及交通運輸。

實時監(jiān)控

工業(yè)和采礦業(yè)依賴于極其龐大和昂貴的機械。如果這種機器出現(xiàn)意外停機,企業(yè)可能蒙受數(shù)以百萬計的損失。例如,許多采礦作業(yè)都依賴于巨型大功率泵來保持巷道無水,并將開采出的泥漿泵送至選礦廠。如果這些泵當中有一臺出現(xiàn)災難性故障,則整個運營都將中斷。因此,礦業(yè)公司在AI系統(tǒng)中投入巨資,以期借助這些系統(tǒng)提前預測潛在的故障。

目前,這些系統(tǒng)通常基于從設備上安裝的物聯(lián)網(wǎng)傳感器傳輸數(shù)據(jù)。然后,數(shù)據(jù)會被集中處理,并將任何必要的警告回傳到相應的操作人員。但是,礦山和施工工地的范圍可能達到數(shù)十公里,通常地形險惡,因此將ML模型直接集成到邊緣設備中將簡化整個過程。

在邊緣運行AI和ML模型需要什么?

將AI轉(zhuǎn)移到網(wǎng)絡邊緣需要三樣東西:合適的硬件、新工具和用于創(chuàng)建ML模型的新范式。下面我們將逐一進行介紹。

經(jīng)過優(yōu)化的硬件

如前文所討論的那樣,ML模型通常依賴于大量的并行運算。本質(zhì)上講,它們需要原始的計算能力。但是,在算力和設備消耗的實際功率之間始終要進行權(quán)衡與取舍。要將ML模型推向邊緣,需要消耗功率盡可能少的設備。當需要嵌入設備時更是如此。幸運的是,現(xiàn)在有各種各樣的高性能、低功耗MCU。

合適的工具

接下來需要合適的工具鏈以在微控制器上運行ML模型。絕大多數(shù)ML框架被設計在64位Intel系列的CPUGPU上運行。相比之下,所有合適的微控制器都具有32位精簡指令集架構(gòu),例如ARM Cortex系列的MCU。但是,TensorFlow Lite等ML框架的開發(fā)使ML模型可以在此類MCU上運行。

一次建模,即可隨處運行

最后一塊拼圖是創(chuàng)建和運行ML模型的不同范式。這可以用“一次建模,即可隨處運行”這句話來概括。顧名思義:先創(chuàng)建模型(通常使用大功率的經(jīng)ML優(yōu)化的機器),然后使用工具鏈將其轉(zhuǎn)換為可以在任何微控制器上運行的代碼。遺憾的是,這樣也損失了從持續(xù)學習或強化學習中受益的能力。

權(quán)衡

下表列出了在邊緣模型上運行ML模型時所做出的一些權(quán)衡。但愿它能提供一些有助于確定是否將您的下一個AI項目移至最前沿的指引。

特性 在數(shù)據(jù)中心 在邊緣
實時
持續(xù)學習
可嵌入
需要網(wǎng)絡?
強化學習
模型是否齊全?

結(jié)論

將ML模型推向邊緣,實現(xiàn)了AI的新用例,從而有望帶來可嵌入式AI的革命。這些在MCU上運行ML模型所需的MCU硬件和工具的發(fā)展,均為這類技術(shù)的擴展奠定了基礎。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • mcu
    mcu
    +關注

    關注

    146

    文章

    16676

    瀏覽量

    347868
  • AI
    AI
    +關注

    關注

    87

    文章

    28902

    瀏覽量

    266280
  • ML
    ML
    +關注

    關注

    0

    文章

    143

    瀏覽量

    34445
收藏 人收藏

    評論

    相關推薦

    硬件幫助AI移動到邊緣

    統(tǒng)。有關AI超出語音和愿景的硬件,實施和影響的進一步見解,請查看特殊項目中的其他文章。 AI推向邊緣的創(chuàng)新
    發(fā)表于 05-29 10:38

    EdgeBoard FZ5 邊緣AI計算盒及計算卡

    科技攜手百度,推出系列高性能及高性價比EdgeBoard 邊緣AI計算卡/計算盒,助力AI項目落地??伸`活適配海量的且不斷迭代的AI模型,并
    發(fā)表于 08-31 14:12

    【HarmonyOS HiSpark AI Camera】邊緣計算安全監(jiān)控系統(tǒng)

    打火機)就報警的模型,實現(xiàn)邊緣測的相關檢測和報警的業(yè)務邏輯。中期,完成傳感器數(shù)據(jù)和視頻推流到云端,實現(xiàn)遠程監(jiān)控。后期,各個環(huán)節(jié)的豐富和優(yōu)化,比如多傳感器、設備接入等,組成一套較完善系統(tǒng)
    發(fā)表于 09-25 10:11

    網(wǎng)絡邊緣實施AI的原因

    AI推向邊緣的影響通過在邊緣運行ML模型可以使哪些
    發(fā)表于 02-23 06:21

    eIQ軟件對ML模型有何作用

    隨著產(chǎn)品越來越復雜,具有更強大的處理能力和更高的速度,使得機器學習(ML)技術(shù)逐漸擴展到邊緣應用。借助eIQ軟件,現(xiàn)在可以非常輕松地新的ML
    發(fā)表于 12-20 07:01

    嵌入式邊緣AI應用開發(fā)指南

    保駕護航。下面讓我們來了解如何不借助手動工具或手動編程來選擇模型、隨時隨地訓練模型并將其無縫部署到TI處理器上,從而實現(xiàn)硬件加速推理。圖1: 邊緣A
    發(fā)表于 11-03 06:53

    如何ML模型部署到微控制器?

    Micro 和STM32Cube.AI運行時來分析我的 ML 模型,然后在兩個不同的板上編譯。提供這兩塊板子相關的硬件資源,其中STM32H7B3I更大一些。然而,奇怪的是,我可以
    發(fā)表于 12-29 13:09

    ST MCU邊緣AI開發(fā)者云 - STM32Cube.AI

    意法半導體(ST)為嵌入式AI開發(fā)人員和數(shù)據(jù)科學家擴展面向嵌入式AI開發(fā)人員和數(shù)據(jù)科學家的解決方案,推出了一套業(yè)界首創(chuàng)的全新工具和服務,通過輔助硬件和軟件決策,
    發(fā)表于 02-02 09:52

    NVIDIA利用 NVIDIA EGX 平臺幫助企業(yè) AI 推向邊緣

    (Supermicro),以及業(yè)內(nèi)領先軟件基礎設施提供商,如 Canonical、Cloudera、紅帽(Red Hat)、SUSE 和 VMware 利用 NVIDIA EGX 平臺幫助企業(yè) AI 推向
    的頭像 發(fā)表于 10-09 15:02 ?2314次閱讀

    FPGA如何在PC中實現(xiàn)AIML

    (人工智能)和ML(機器學習)的日益普及開辟一個充滿可能性的新世界,PC廠商和生態(tài)系統(tǒng)巨頭都在尋求這些先進的新功能添加到其產(chǎn)品功能集中。 在本篇博文中,萊迪思討論PC中
    的頭像 發(fā)表于 09-08 17:19 ?1110次閱讀

    ML-EXray:云到邊緣部署驗證框架

      嵌入式AIML邊緣的部署不斷增加,無疑引入了從云到邊緣的新性能變化。盡管邊緣設備上的AI
    的頭像 發(fā)表于 10-18 14:31 ?646次閱讀

    邊緣AI模型壓縮技術(shù)

    在某個時間點,人們認為大型和復雜的模型表現(xiàn)更好,但現(xiàn)在它幾乎是一個神話。隨著邊緣AI的發(fā)展,越來越多的技術(shù)大型復雜模型轉(zhuǎn)換為可以在
    的頭像 發(fā)表于 10-19 14:22 ?966次閱讀
    <b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>的<b class='flag-5'>模型</b>壓縮技術(shù)

    如何優(yōu)化ML模型與硬件實現(xiàn)TinyML?Arm歸納出5種作法

    近幾年,因應AIML應用趨勢浪潮,越來越多企業(yè)開始嘗試這樣的能力帶到靠近數(shù)據(jù)源的邊緣設備或IoT裝置,來發(fā)展各種Edge AI或AIoT
    的頭像 發(fā)表于 01-07 09:20 ?1071次閱讀

    Supermicro全新系統(tǒng)產(chǎn)品組合前沿AI性能推向邊緣計算環(huán)境

    模型(Pre-trained Model)及AI推論解決方案部署在產(chǎn)生數(shù)據(jù)的邊緣端,進而縮短響應時間與
    的頭像 發(fā)表于 02-24 09:10 ?887次閱讀
    Supermicro全新系統(tǒng)產(chǎn)品組合<b class='flag-5'>將</b>前沿<b class='flag-5'>AI</b>性能<b class='flag-5'>推向</b><b class='flag-5'>邊緣</b>計算環(huán)境

    NVIDIA與恩智浦聯(lián)手,在邊緣設備上部署AI模型

    恩智浦工業(yè)及IoT邊緣高級副總裁Charles Dachs表示,人工智能的創(chuàng)新塑造智能互聯(lián)世界的未來,融入Nvidia先進的AI培訓技術(shù)以及恩智浦在工業(yè)及物聯(lián)網(wǎng)邊緣科研實力,
    的頭像 發(fā)表于 03-25 16:05 ?763次閱讀