0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用OpenVINO?減少食物浪費,踐行科技向善

英特爾物聯(lián)網(wǎng) ? 來源:英特爾物聯(lián)網(wǎng) ? 作者:Anisha Udayakumar ? 2022-12-16 14:03 ? 次閱讀

作者:Anisha Udayakumar 翻譯:張晶

項目背景

你是否知道每年大約有2300億美元的食物被浪費,其中高達五分之一屬于可食用農(nóng)產(chǎn)品?我們都在自己的家中經(jīng)歷過某種類型的食物浪費,但最大量的浪費發(fā)生在雜貨店的新鮮食品和農(nóng)產(chǎn)品區(qū)。

長期以來,這么多的食物浪費一直是我關(guān)心的問題!在加入英特爾之前,我是一名創(chuàng)新顧問,與多家全球零售客戶合作改善運營和客戶滿意度,那時是我第一次注意到商店里浪費了大量的新鮮食物的時候?;谶@樣一個事實,與預(yù)先包裝的食品不同,新鮮農(nóng)產(chǎn)品沒有保質(zhì)期——這使得預(yù)測它何時變質(zhì)變得極其困難。

由于,使用人工智能等技術(shù)讓可持續(xù)發(fā)展成為主流一直是我的夢想,我知道零售商必須有更好的方法來解決這個問題并減少新鮮農(nóng)產(chǎn)品的浪費,所以,我建立了一個計算機視覺人工智能模型,可以確定農(nóng)產(chǎn)品的新鮮度,比如西紅柿或香蕉等。但是,讓 AI 模型實時工作是一個挑戰(zhàn),我意識到提高模型性能對于部署和大規(guī)模應(yīng)用至關(guān)重要。

在這篇文章中,我將展示如何使用 OpenVINO工具套件來優(yōu)化模型和加速人工智能推理計算。

構(gòu)建模型

通過使用攝像頭來監(jiān)控雜貨店的貨架,并使用目標檢測和識別技術(shù)掃描其貨物的圖像。本文中我使用了一個AI 模型準確識別出農(nóng)產(chǎn)品區(qū)的每一件商品。

通過打上標簽的圖像,目標檢測和識別算法能夠確定產(chǎn)品是新鮮、損壞還是即將變質(zhì)。有了這些信息,我們就可以設(shè)置自動警報,通知商店經(jīng)理和零售商是否需要更換產(chǎn)品或需要降價——減少需要丟棄的產(chǎn)品數(shù)量。

OpenVINO助力實時推理計算

我的新鮮度識別模型可以分析單件新鮮農(nóng)產(chǎn)品的圖像,如上圖所示。為了在現(xiàn)實場景中發(fā)揮作用,它必須能夠非常快速地區(qū)分和標記大型貨架上的每一件農(nóng)產(chǎn)品。

為了構(gòu)建模型,我使用了 Open Model Zoo 中的 SSDLite MobileNetV2 模型,詳情請參考這個 Jupyter notebook 中描述的目標檢測和識別程序。

Open Model Zoo github地址:

https://github.com/openvinotoolkit/open_model_zoo/

SSDLite MobileNetV2 地址:

https://github.com/openvinotoolkit/open_model_zoo/tree/master/models/public/ssdlite_mobilenet_v2

Jupyter notebook 地址:

https://github.com/openvinotoolkit/openvino_notebooks/blob/main/notebooks/401-object-detection-webcam/401-object-detection.ipynb

雖然我將該程序用于解決食物浪費問題,但它并不局限于解決食物浪費問題。開發(fā)者可以很容易地按照詳細的源碼將其應(yīng)用到自己的目標檢測場景中。

正如我已經(jīng)提到的,雖然我最初的目標檢測模型是準確的,但它檢測速度太慢了。一開始,我嘗試對模型進行微調(diào),甚至切換到了另一個模型,但這并沒有是性能得到很大改善,于是我轉(zhuǎn)向了 OpenVINO,它幫我將推理時間從10秒縮短到了1.5秒。

使用OpenVINO的另一個好處是,使模型移植性更好。我的新鮮度檢測模型是基于 TensorFlow 構(gòu)建的,我也可以使用其他框架,如PyTorch、Caffe或PaddlePaddle,并在各種不同的硬件上運行我的模型,如下圖所示。

4708635c-7c67-11ed-8abf-dac502259ad0.png

如果你想自己嘗試這個方法,這里有兩個建議:

1. 首先,正如下面的代碼片段所示,使用OpenVINO您只需要六行代碼來加載和初始化OpenVINO運行時,并針對指定的硬件編譯您的模型,然后將圖像數(shù)據(jù)傳遞給模型并得到推理結(jié)果!

2. 你真正想記住的另一件事是“device_name”部分。OpenVINO讓您可以靈活地在許多可能的設(shè)備(CPU、集成顯卡、獨立顯卡乃至 FPGA)中選擇最符合您的設(shè)計性能(吞吐量和時延)目標的推理計算設(shè)備。

from openvino.runtime import Core
img = load_img ()
core = Core()
compiled_model = core.compile_model(model=model, device_name=”CPU”)
output_layer = compiled_model.output[0]
results = compiled_model([input_img])[output_layer]

向右滑動查看完整代碼

下一步是什么

正如你所看到的,為人工智能應(yīng)用程序構(gòu)建軟件并不難。真正的訣竅是讓它們實時工作。OpenVINO改進了我的人工智能模型的性能,并使我的食物浪費減少應(yīng)用程序成為現(xiàn)實。

總結(jié)一下這個項目中最重要的兩個經(jīng)驗:

1. 由于 OpenVINO適用于所有通用框架,所以您可以只需用幾行代碼來優(yōu)化現(xiàn)有的模型。

2. 我在這篇文章中介紹的模型不僅僅可用于減少食物浪費,還可以解決 AI 開發(fā)者每天面臨的許多類似問題。

要了解更多關(guān)于如何開始用 AI 和 OpenVINO解決現(xiàn)實世界的問題,請查看英特爾人工智能開發(fā)者學(xué)習(xí)之旅以獲得更多的演練和教程,并訪問 Open Model Zoo 以利用更多的預(yù)先訓(xùn)練和優(yōu)化的模型。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    60

    文章

    9866

    瀏覽量

    171327
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4592

    瀏覽量

    92538
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29862

    瀏覽量

    268154
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    46698

    瀏覽量

    237196

原文標題:用OpenVINO?減少食物浪費,踐行科技向善

文章出處:【微信號:英特爾物聯(lián)網(wǎng),微信公眾號:英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    使用OpenVINO Model Server在哪吒開發(fā)板上部署模型

    OpenVINO Model Server(OVMS)是一個高性能的模型部署系統(tǒng),使用C++實現(xiàn),并在Intel架構(gòu)上的部署進行了優(yōu)化,使用OpenVINO 進行推理,推理服務(wù)通過gPRC或REST
    的頭像 發(fā)表于 11-01 14:19 ?153次閱讀
    使用<b class='flag-5'>OpenVINO</b> Model Server在哪吒開發(fā)板上部署模型

    OpenVINO2024 C++推理使用技巧

    很多人都使用OpenVINO新版的C++ 或者Python的SDK,都覺得非常好用,OpenVINO2022之后的版本C++ SDK做了大量的優(yōu)化與整理,已經(jīng)是非常貼近開發(fā)的使用習(xí)慣與推理方式。與OpenCV的Mat對象對接方式更是幾乎無縫對接,非常的方便好用。
    的頭像 發(fā)表于 07-26 09:20 ?729次閱讀

    OpenVINO C# API在intel平臺部署YOLOv10目標檢測模型

    的模型設(shè)計策略,從效率和精度兩個角度對YOLOs的各個組成部分進行了全面優(yōu)化,大大降低了計算開銷,增強了性能。在本文中,我們將結(jié)合OpenVINO C# API使用最新發(fā)布的OpenVINO 2024.1部署YOLOv10目標檢測模型。
    的頭像 發(fā)表于 06-21 09:23 ?918次閱讀
    <b class='flag-5'>用</b><b class='flag-5'>OpenVINO</b> C# API在intel平臺部署YOLOv10目標檢測模型

    解鎖LLM新高度—OpenVINO? 2024.1賦能生成式AI高效運行

    LLM 的發(fā)展仍保持著驚人的速度。盡管現(xiàn)有的 LLM 已經(jīng)具備強大的功能,但通過 OpenVINO? 的優(yōu)化和推理加速,可以對這些復(fù)雜模型的執(zhí)行進行精煉,實現(xiàn)更快、更高效的處理,減少計算開銷并最大限度發(fā)揮硬件潛力,這將直接導(dǎo)致 LLM 實現(xiàn)更高的吞吐量和更低的延遲。
    的頭像 發(fā)表于 05-10 10:36 ?478次閱讀

    研揚攜手英特爾,聯(lián)合舉辦創(chuàng)AI百城行(武漢站):OpenVINO?賦能AI于邊緣計算平臺

    邊緣計算作為實現(xiàn)智能化、高效化數(shù)據(jù)處理的關(guān)鍵技術(shù),日益受到業(yè)界的廣泛關(guān)注。為了進一步推動AI邊緣計算技術(shù)的發(fā)展與應(yīng)用,3月27日研揚科技與英特爾在武漢共同舉辦了以“OpenVINO賦能AI邊緣計算
    的頭像 發(fā)表于 04-04 08:05 ?198次閱讀
    研揚攜手英特爾,聯(lián)合舉辦創(chuàng)AI百城行(武漢站):<b class='flag-5'>用</b><b class='flag-5'>OpenVINO</b>?賦能AI于邊緣計算平臺

    如何避免錫膏的浪費?

    錫膏在使用中,有手動印刷和機器印刷。手動印刷要比機器印刷浪費得多一些,但是在機器印刷中也是極為容易出現(xiàn)浪費的。雖說錫膏在使用過程中的浪費是不可避免的,但有些情況是可以控制的,下面由深圳佳金源錫膏廠家
    的頭像 發(fā)表于 02-23 17:26 ?358次閱讀
    如何避免錫膏的<b class='flag-5'>浪費</b>?

    OpenVINO添加對Paddle 2.5的支持

    我是飛槳黑客馬拉松第五期 OpenVINO 賽題獲獎?wù)摺獮?OpenVINO 添加了對 Paddle 2.5 的支持。在此記錄下來貢獻的過程,希望有更多的同學(xué)可以參與到 OpenVINO 的社區(qū)
    的頭像 發(fā)表于 01-19 09:20 ?598次閱讀

    基于OpenVINO?和AIxBoard的智能安檢盒子設(shè)計

    公共安全問題日益凸顯,傳統(tǒng)安檢手段面臨挑戰(zhàn)。為提高安檢效率和保障公共安全,基于 OpenVINO? 和 AIxBoard 的智能安檢盒子應(yīng)運而生。
    的頭像 發(fā)表于 01-18 17:31 ?779次閱讀
    基于<b class='flag-5'>OpenVINO</b>?和AIxBoard的智能安檢盒子設(shè)計

    如何在MacOS上編譯OpenVINO C++項目呢?

    英特爾公司發(fā)行的模型部署工具 OpenVINO 模型部署套件,可以實現(xiàn)在不同系統(tǒng)環(huán)境下運行,且發(fā)布的 OpenVINO 2023 最新版目前已經(jīng)支持 MacOS 系統(tǒng)并同時支持在蘋果 M 系列芯片上部署模型。
    的頭像 發(fā)表于 01-11 18:07 ?836次閱讀
    如何在MacOS上編譯<b class='flag-5'>OpenVINO</b> C++項目呢?

    基于OpenVINO和AIxBoard的智能安檢盒子設(shè)計

    公共安全問題日益凸顯,傳統(tǒng)安檢手段面臨挑戰(zhàn)。為提高安檢效率和保障公共安全,基于 OpenVINO 和 AIxBoard 的智能安檢盒子應(yīng)運而生。利用深度學(xué)習(xí)模型和 X 光圖像處理技術(shù),該設(shè)備能夠?qū)崟r識別危險物品并發(fā)出警報,為公共場所、機場等場景提供高效、準確的安檢解決方案。
    的頭像 發(fā)表于 12-25 11:14 ?497次閱讀
    基于<b class='flag-5'>OpenVINO</b>和AIxBoard的智能安檢盒子設(shè)計

    如何快速下載OpenVINO Notebooks中的AI大模型

    OpenVINO Notebooks是Jupyter Notebook形式的OpenVINO范例程序大集合,方便開發(fā)者快速學(xué)習(xí)并掌握OpenVINO推理程序,并通過Copy&Paste方式將范例中的關(guān)鍵程序應(yīng)用到自己的AI軟件中
    的頭像 發(fā)表于 12-12 14:40 ?1058次閱讀
    如何快速下載<b class='flag-5'>OpenVINO</b> Notebooks中的AI大模型

    APUS李濤出席「清華會講」談“智能向善

    11 月 19 日,APUS董事長兼CEO李濤受邀出席第六屆清華會講,在“科技創(chuàng)新與企業(yè)發(fā)展”分會講中進行了《把握AI大模型發(fā)展主動權(quán) 引領(lǐng)智能向善》的主旨發(fā)言。李濤通過洞觀全球AI產(chǎn)業(yè)發(fā)展挑戰(zhàn)
    的頭像 發(fā)表于 11-22 16:13 ?477次閱讀
    APUS李濤出席「清華會講」談“智能<b class='flag-5'>向善</b>”

    同步模式下OpenVINO2023 SDK的推理方式

    OpenVINO2023版本的SDK支持同步與異步推理模式相比之前OpenVINO2021版本更加的簡潔,易用。同時支持創(chuàng)建多個Requst然后基于多個Requst實現(xiàn)流水線方式的推理從而提升CPU推理的吞吐率。
    的頭像 發(fā)表于 11-21 10:03 ?829次閱讀
    同步模式下<b class='flag-5'>OpenVINO</b>2023 SDK的推理方式

    NNCF壓縮與量化YOLOv8模型與OpenVINO部署測試

    OpenVINO2023版本衍生出了一個新支持工具包NNCF(Neural Network Compression Framework – 神經(jīng)網(wǎng)絡(luò)壓縮框架),通過對OpenVINO IR格式模型的壓縮與量化更好的提升模型在OpenVI
    的頭像 發(fā)表于 11-20 10:46 ?1456次閱讀
    NNCF壓縮與量化YOLOv8模型與<b class='flag-5'>OpenVINO</b>部署測試

    如何使用OpenVINO C++ API部署FastSAM模型

    象的位置和邊界。本文將介紹如何使用 OpenVINO C++ API 部署 FastSAM 模型,以實現(xiàn)快速高效的語義分割。在前文中我們發(fā)表了《基于 OpenVINO Python API 部署
    的頭像 發(fā)表于 11-17 09:53 ?840次閱讀
    如何使用<b class='flag-5'>OpenVINO</b> C++ API部署FastSAM模型