0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何在移動(dòng)設(shè)備上訓(xùn)練和部署自定義目標(biāo)檢測(cè)模型

硬件三人行 ? 來(lái)源:TensorFlow ? 作者: Khanh LeVie ? 2021-08-16 17:09 ? 次閱讀

發(fā)布人:技術(shù)推廣工程師 Khanh LeViet,代表 TensorFlow Lite 團(tuán)隊(duì)

在今年的 Google I/O 大會(huì)上,我們很高興地宣布推出了多項(xiàng)產(chǎn)品更新。這些更新可以幫助簡(jiǎn)化移動(dòng)設(shè)備上,目標(biāo)檢測(cè)模型的訓(xùn)練和部署的過(guò)程:

設(shè)備端 ML 學(xué)習(xí)路徑:關(guān)于如何在移動(dòng)設(shè)備上,訓(xùn)練和部署自定義目標(biāo)檢測(cè)模型的分步教程,無(wú)需機(jī)器學(xué)習(xí)專業(yè)知識(shí)。

設(shè)備端 ML 學(xué)習(xí)路徑

https://developers.google.com/learn/pathways/going-further-object-detection

EfficientDet-Lite:針對(duì)移動(dòng)設(shè)備優(yōu)化的精尖目標(biāo)檢測(cè)模型架構(gòu)。

EfficientDet-Lite

https://hub.tensorflow.google.cn/s?deployment-format=lite&q=efficientdet-lite

用于目標(biāo)檢測(cè)的 TensorFlow Lite Model Maker:只需幾行代碼即可訓(xùn)練自定義模型

目標(biāo)檢測(cè)

http://tensorflow.google.cn/lite/tutorials/model_maker_object_detection

TensorFlow Lite Metadata Writer API:簡(jiǎn)化元數(shù)據(jù)創(chuàng)建以生成與 TFLite Task Library 兼容的自定義目標(biāo)檢測(cè)模型。

Metadata Writer API

http://tensorflow.google.cn/lite/convert/metadata_writer_tutorial

TFLite Task Library

http://tensorflow.google.cn/lite/inference_with_metadata/task_library/object_detector

盡管目標(biāo)檢測(cè)是非常常見的 ML 用例,但可能也是最難執(zhí)行的用例之一。我們一直致力于為您簡(jiǎn)化相關(guān)操作。在這篇文章中,我們將向您介紹如何利用 TensorFlow Lite 的最新產(chǎn)品、通過(guò)使用您自己的訓(xùn)練數(shù)據(jù)構(gòu)建最先進(jìn)的移動(dòng)端目標(biāo)檢測(cè)。

設(shè)備端 ML 學(xué)習(xí)路徑:

在 12 分鐘內(nèi)了解如何訓(xùn)練和部署自定義 TensorFlow Lite 目標(biāo)檢測(cè)模型

有了 TensorFlow Lite,訓(xùn)練自定義目標(biāo)檢測(cè)模型并將其部署到 Android 應(yīng)用變得非常容易。我們已經(jīng)發(fā)布了學(xué)習(xí)路徑,可指導(dǎo)您按步驟順利完成相關(guān)操作。

您可以通過(guò)視頻了解構(gòu)建自定義目標(biāo)檢測(cè)器的具體步驟:

1. 準(zhǔn)備訓(xùn)練數(shù)據(jù)。

2. 使用 TensorFlow Lite Model Maker 訓(xùn)練自定義目標(biāo)檢測(cè)模型。

3. 使用 TensorFlow Lite Task Library 在您的移動(dòng)應(yīng)用上部署模型。

我們還在 GitHub 上提供了帶有源代碼的 Codelab,供您自行試運(yùn)行代碼。請(qǐng)嘗試一下,并告訴我們您的反饋!

Codelab

https://codelabs.developers.google.com/tflite-object-detection-android

告訴我們

https://github.com/googlecodelabs/odml-pathways/issues

EfficientDet-Lite:

移動(dòng)端設(shè)備目標(biāo)檢測(cè)最優(yōu)模型架構(gòu)之一

在移動(dòng)設(shè)備上運(yùn)行機(jī)器學(xué)習(xí)模型意味著我們始終需要在模型精度、推理速度和模型大小之間進(jìn)行權(quán)衡。最優(yōu)的移動(dòng)端模型不僅需要更加精準(zhǔn),還需要更快地運(yùn)行速度和更小的體積。我們采用了 EfficientDet 論文中發(fā)布的神經(jīng)架構(gòu)搜索技術(shù),并優(yōu)化了在移動(dòng)設(shè)備上運(yùn)行的模型架構(gòu),最終推出了名為 EfficientDet-Lite 的新型移動(dòng)設(shè)備目標(biāo)檢測(cè)模型系列。

EfficientDet

https://arxiv.org/abs/1911.09070

EfficientDet-Lite 有 5 個(gè)不同的版本:從 Lite0 到 Lite4。較小的版本運(yùn)行速度更快,而較大的版本精度更高。您可以先用多個(gè)版本的 EfficientNet-Lite 進(jìn)行試驗(yàn),然后選擇最適合您用例的版本。

* 整型量化模型的大小

** 在 Pixel 4 上使用 4 個(gè) CPU 線程測(cè)量得出的延遲時(shí)間

*** 平均精度是 COCO 2017 驗(yàn)證數(shù)據(jù)集上的 mAP(平均精度均值)

我們已將在 COCO 數(shù)據(jù)集上訓(xùn)練的 EfficientDet-Lite 模型發(fā)布到 TensorFlow Hub。您還可以使用自己的訓(xùn)練數(shù)據(jù),通過(guò) TensorFlow Lite Model Maker 訓(xùn)練 EfficientDet-Lite 自定義模型。

TensorFlow Hub

https://hub.tensorflow.google.cn/s?q=efficientdet/lite

TensorFlow Lite Model Maker:幾行代碼使用遷移學(xué)習(xí)訓(xùn)練自定義目標(biāo)檢測(cè)模型

TensorFlow Lite Model Maker 是 Python 庫(kù),可顯著簡(jiǎn)化使用自定義數(shù)據(jù)集訓(xùn)練機(jī)器學(xué)習(xí)模型的過(guò)程。該庫(kù)利用遷移學(xué)習(xí),僅使用少量圖像即可訓(xùn)練高質(zhì)量模型。

TensorFlow Lite Model Maker

http://tensorflow.google.cn/lite/guide/model_maker

Model Maker 接受 PASCAL VOC 格式和 Cloud AutoML 的 CSV 格式的數(shù)據(jù)集。和使用 LabelImg 或 makesense.ai 等開源 GUI 工具創(chuàng)建自己的數(shù)據(jù)集一樣,每位開發(fā)者都可以創(chuàng)建用于 Model Maker 的訓(xùn)練數(shù)據(jù),且無(wú)需編寫任何代碼。

CSV

https://cloud.google.com/vision/automl/object-detection/docs/csv-format

LabelImg

https://github.com/tzutalin/labelImg

makesense.ai

https://github.com/SkalskiP/make-sense

獲得訓(xùn)練數(shù)據(jù)后,您就可以開始訓(xùn)練自定義的 TensorFlow Lite 目標(biāo)檢測(cè)模型了。

# Step 1: Choose the model architecture

spec = model_spec.get(‘efficientdet_lite2’)

# Step 2: Load your training data

train_data, validation_data, test_data = object_detector.DataLoader.from_csv(‘gs://cloud-ml-data/img/openimage/csv/salads_ml_use.csv’)

# Step 3: Train a custom object detector

model = object_detector.create(train_data, model_spec=spec, validation_data=validation_data)

# Step 4: Export the model in the TensorFlow Lite format

model.export(export_dir=‘?!?/p>

# Step 5: Evaluate the TensorFlow Lite model

model.evaluate_tflite(‘model.tflite’, test_data)

查看此 Codelab 了解詳情。

Codelab

http://tensorflow.google.cn/lite/tutorials/model_maker_object_detection

TensorFlow Lite Task Library:使用幾行代碼在移動(dòng)設(shè)備上部署目標(biāo)檢測(cè)模型

TensorFlow Lite Task Library 是跨平臺(tái)庫(kù),它簡(jiǎn)化了 TensorFlow Lite 模型在移動(dòng)設(shè)備上的部署。使用 TensorFlow Lite Model Maker 訓(xùn)練的自定義目標(biāo)檢測(cè)模型只需使用幾行 Kotlin 代碼即可部署到 Android 應(yīng)用:

// Step 1: Load the TensorFlow Lite model

val detector = ObjectDetector.createFromFile(context, “model.tflite”)

// Step 2: Convert the input Bitmap into a TensorFlow Lite‘s TensorImage object

val image = TensorImage.fromBitmap(bitmap)

// Step 3: Feed given image to the model and get the detection result

val results = detector.detect(image)

您可參閱一下文檔,了解有關(guān) Task Library 中,包括如何配置最小檢測(cè)閾值或最大檢測(cè)對(duì)象數(shù)量等更多自定義選項(xiàng)信息。

文檔

https://tensorflow.google.cn/lite/inference_with_metadata/task_library/object_detector

TensorFlow Lite Metadata Writer API:

用于簡(jiǎn)化使用 TensorFlow Object Detection API 訓(xùn)練的自定義模型的部署

Task Library 依賴 TensorFlow Lite 模型中捆綁的模型元數(shù)據(jù)來(lái)執(zhí)行必要的預(yù)處理和后處理邏輯,以便使用該模型來(lái)運(yùn)行推理。這其中包括如何將輸入圖像歸一化,或如何將類 ID 映射到可人工讀取的標(biāo)簽。因?yàn)槭褂?Model Maker 訓(xùn)練的模型會(huì)默認(rèn)包含此類元數(shù)據(jù),所以它能夠與 Task Library 兼容。但是,如果您使用除 Model Maker 以外的訓(xùn)練流水線,來(lái)訓(xùn)練 TensorFlow Lite 目標(biāo)檢測(cè),則可以使用 TensorFlow Lite Metadata Writer API 來(lái)添加元數(shù)據(jù)。

模型元數(shù)據(jù)

https://tensorflow.google.cn/lite/convert/metadata

例如,如果您使用 TensorFlow Object Detection API 來(lái)訓(xùn)練模型,則可以使用以下 Python 代碼將元數(shù)據(jù)添加到 TensorFlow Lite 模型:

LABEL_PATH = ’label_map.txt‘

MODEL_PATH = “ssd_mobilenet_v2_fpnlite_640x640_coco17_tpu-8/model.tflite”

SAVE_TO_PATH = “ssd_mobilenet_v2_fpnlite_640x640_coco17_tpu-8/model_with_metadata.tflite”# Step 1: Specify the preprocessing parameters and label file

writer = object_detector.MetadataWriter.create_for_inference(

writer_utils.load_file(MODEL_PATH), input_norm_mean=[0],

input_norm_std=[255], label_file_paths=[LABEL_PATH])

# Step 2: Export the model with metadata

writer_utils.save_file(writer.populate(), SAVE_TO_PATH)

在示例中,我們指定歸一化參數(shù) (input_norm_mean=[0], input_norm_std=[255]) ,以便將輸入圖像歸一化到 [0..1] 范圍內(nèi)。您需要指定與模型訓(xùn)練期間使用的預(yù)處理邏輯中相同的歸一化參數(shù)。

歸一化

http://tensorflow.google.cn/lite/convert/metadata#normalization_and_quantization_parameters

參閱此 Colab,獲取有關(guān)如何將使用 TensorFlow Object Detection API 訓(xùn)練的模型轉(zhuǎn)換為 TensorFlow Lite 模型并添加元數(shù)據(jù)的完整教程。

Colab

https://colab.research.google.com/github/tensorflow/models/blob/master/research/object_detection/colab_tutorials/convert_odt_model_to_TFLite.ipynb

未來(lái)計(jì)劃

我們的目標(biāo)是讓每位開發(fā)者(無(wú)論是否具備機(jī)器學(xué)習(xí)專業(yè)知識(shí))都能更輕松使用機(jī)器學(xué)習(xí)。目前,我們正在與 TF Model Garden 團(tuán)隊(duì)合作,希望推出更多適用于 Model Maker 的目標(biāo)檢測(cè)模型架構(gòu)。

未來(lái),我們還將繼續(xù)與 Google 研究人員合作,通過(guò) Model Maker 提供更多面向未來(lái)的更優(yōu)秀的目標(biāo)檢測(cè)模型,縮短從前沿研究到投入實(shí)際應(yīng)用并且供所有開發(fā)者使用的整個(gè)流程。敬請(qǐng)關(guān)注更多動(dòng)態(tài)!

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Google
    +關(guān)注

    關(guān)注

    5

    文章

    1748

    瀏覽量

    57182
  • ML
    ML
    +關(guān)注

    關(guān)注

    0

    文章

    143

    瀏覽量

    34435
  • 目標(biāo)檢測(cè)
    +關(guān)注

    關(guān)注

    0

    文章

    196

    瀏覽量

    15564
  • GitHub
    +關(guān)注

    關(guān)注

    3

    文章

    461

    瀏覽量

    16234

原文標(biāo)題:使用 TensorFlow Lite 簡(jiǎn)化移動(dòng)端目標(biāo)檢測(cè)

文章出處:【微信號(hào):yingjiansanrenxing,微信公眾號(hào):硬件三人行】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    NVIDIA NeMo加速并簡(jiǎn)化自定義模型開發(fā)

    如果企業(yè)希望充分發(fā)揮出 AI 的力量,就需要根據(jù)其行業(yè)需求量身定制的自定義模型
    的頭像 發(fā)表于 07-26 11:17 ?575次閱讀
    NVIDIA NeMo加速并簡(jiǎn)化<b class='flag-5'>自定義</b><b class='flag-5'>模型</b>開發(fā)

    NVIDIA AI Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 AI 模型

    Foundry 提供從數(shù)據(jù)策管、合成數(shù)據(jù)生成、微調(diào)、檢索、防護(hù)到評(píng)估的全方位生成式 AI 模型服務(wù),以便部署自定義 Llama 3.1 NVIDIA NIM 微服務(wù)和新的 NVIDIA NeMo
    發(fā)表于 07-24 09:39 ?622次閱讀
    NVIDIA AI Foundry 為全球企業(yè)打造<b class='flag-5'>自定義</b> Llama 3.1 生成式 AI <b class='flag-5'>模型</b>

    何在IDF框架中使用自定義的靜態(tài)庫(kù)和動(dòng)態(tài)庫(kù)?

    基于商業(yè)需要,我們需要在 ESP-IDF v4.0-rc 這個(gè)版本的IDF中開發(fā)與使用自定義庫(kù),有如下問(wèn)題請(qǐng)協(xié)助: 1如何利用IDF框架編寫自定義靜態(tài)庫(kù)和動(dòng)態(tài)庫(kù)? 2如何在IDF框架中使用自定
    發(fā)表于 06-25 07:57

    maixcam部署yolov5s 自定義模型

    maixcam部署yolov5s 自定義模型 本博客將向你展示零基礎(chǔ)一步步的部署好自己的yolov5s模型(博主展示的是安全帽
    發(fā)表于 04-23 15:43

    HarmonyOS開發(fā)實(shí)例:【自定義Emitter】

    使用[Emitter]實(shí)現(xiàn)事件的訂閱和發(fā)布,使用[自定義彈窗]設(shè)置廣告信息。
    的頭像 發(fā)表于 04-14 11:37 ?880次閱讀
    HarmonyOS開發(fā)實(shí)例:【<b class='flag-5'>自定義</b>Emitter】

    鴻蒙ArkUI實(shí)例:【自定義組件】

    組件是 OpenHarmony 頁(yè)面最小顯示單元,一個(gè)頁(yè)面可由多個(gè)組件組合而成,也可只由一個(gè)組件組合而成,這些組件可以是ArkUI開發(fā)框架自帶系統(tǒng)組件,比如?`Text`?、?`Button`?等,也可以是自定義組件,本節(jié)筆者簡(jiǎn)單介紹一下自定義組件的語(yǔ)法規(guī)范。
    的頭像 發(fā)表于 04-08 10:17 ?484次閱讀

    基于YOLOv8實(shí)現(xiàn)自定義姿態(tài)評(píng)估模型訓(xùn)練

    Hello大家好,今天給大家分享一下如何基于YOLOv8姿態(tài)評(píng)估模型,實(shí)現(xiàn)在自定義數(shù)據(jù)集,完成自定義姿態(tài)評(píng)估模型
    的頭像 發(fā)表于 12-25 11:29 ?2417次閱讀
    基于YOLOv8實(shí)現(xiàn)<b class='flag-5'>自定義</b>姿態(tài)評(píng)估<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>

    如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)圓檢測(cè)與圓心位置預(yù)測(cè)

    Hello大家好,今天給大家分享一下如何基于深度學(xué)習(xí)模型訓(xùn)練實(shí)現(xiàn)圓檢測(cè)與圓心位置預(yù)測(cè),主要是通過(guò)對(duì)YOLOv8姿態(tài)評(píng)估模型自定義的數(shù)據(jù)集
    的頭像 發(fā)表于 12-21 10:50 ?1397次閱讀
    如何基于深度學(xué)習(xí)<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>實(shí)現(xiàn)圓<b class='flag-5'>檢測(cè)</b>與圓心位置預(yù)測(cè)

    基于YOLOv8的自定義醫(yī)學(xué)圖像分割

    YOLOv8是一種令人驚嘆的分割模型;它易于訓(xùn)練、測(cè)試和部署。在本教程中,我們將學(xué)習(xí)如何在自定義數(shù)據(jù)集
    的頭像 發(fā)表于 12-20 10:51 ?615次閱讀
    基于YOLOv8的<b class='flag-5'>自定義</b>醫(yī)學(xué)圖像分割

    【飛騰派4G版免費(fèi)試用】第三章:抓取圖像,手動(dòng)標(biāo)注并完成自定義目標(biāo)檢測(cè)模型訓(xùn)練和測(cè)試

    抓取圖像,手動(dòng)標(biāo)注并完成自定義目標(biāo)檢測(cè)模型訓(xùn)練和測(cè)試 在第二章中,我介紹了模型
    發(fā)表于 12-16 10:05

    NVIDIA 加快企業(yè)自定義生成式 AI 模型開發(fā)

    的業(yè)務(wù)數(shù)據(jù)進(jìn)行自定義。 如今,免費(fèi)、開源的大語(yǔ)言模型對(duì)企業(yè)來(lái)說(shuō)就像是一頓“自助餐”。但對(duì)于構(gòu)建自定義生成式 AI 應(yīng)用的開發(fā)者來(lái)說(shuō),這頓“大餐”可能會(huì)讓他們應(yīng)接不暇,因?yàn)樗麄冃枰獫M足各種不同的項(xiàng)目和業(yè)務(wù)
    的頭像 發(fā)表于 11-16 21:15 ?492次閱讀
    NVIDIA 加快企業(yè)<b class='flag-5'>自定義</b>生成式 AI <b class='flag-5'>模型</b>開發(fā)

    何在Matlab中自定義Message

    自定義Message 當(dāng)我們的 message 消息比較復(fù)雜時(shí),通常要用到自定義的 message 消息,MATLAB 2020b以上的版本自帶了ROS Toolbox Interface
    的頭像 發(fā)表于 11-15 18:12 ?1037次閱讀
    如<b class='flag-5'>何在</b>Matlab中<b class='flag-5'>自定義</b>Message

    Android端自定義鈴聲 MobPush對(duì)安卓端自定義鈴聲的教程

    如何為APP推送設(shè)置獨(dú)特的通知鈴聲呢?本次帶來(lái)的是MobPush對(duì)安卓端自定義鈴聲的教程,快來(lái)看看吧~
    的頭像 發(fā)表于 10-21 15:34 ?1020次閱讀
    Android端<b class='flag-5'>自定義</b>鈴聲 MobPush對(duì)安卓端<b class='flag-5'>自定義</b>鈴聲的教程

    【KV260視覺入門套件試用體驗(yàn)】Vitis AI 通過(guò)遷移學(xué)習(xí)訓(xùn)練自定義模型

    使用inspector檢查模型 六、Vitis AI 進(jìn)行模型校準(zhǔn)和來(lái)量化 七、Vitis AI 通過(guò)遷移學(xué)習(xí)訓(xùn)練自定義模型 八、Vitis
    發(fā)表于 10-16 15:03

    何在Cortex-M0+單片機(jī)中自定義ASFv3 SAM-BA自舉程序

    電子發(fā)燒友網(wǎng)站提供《如何在Cortex-M0+單片機(jī)中自定義ASFv3 SAM-BA自舉程序.pdf》資料免費(fèi)下載
    發(fā)表于 09-25 09:39 ?0次下載
    如<b class='flag-5'>何在</b>Cortex-M0+單片機(jī)中<b class='flag-5'>自定義</b>ASFv3 SAM-BA自舉程序