0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

X3派AI算法推理快速入門(mén)

地瓜機(jī)器人 ? 2022-07-18 14:24 ? 次閱讀

0 環(huán)境安裝

在進(jìn)行AI算法開(kāi)發(fā)之前請(qǐng)參考X3派用戶(hù)手冊(cè)完成系統(tǒng)安裝及配置,此時(shí)X3派上已默認(rèn)安裝好了地平線Python版本AI推理引擎(hobot_dnn)及其配套依賴(lài)環(huán)境。hobot_dnn提供了Model 、pyDNNTensor、TensorProperties三個(gè)類(lèi)和load接口。您可通過(guò)如下方式獲取hobot_dnn的基本信息

-------------------------------------------------------------------------------------------------------------------------------

python3
>>> from hobot_dnn import pyeasy_dnn as dnn
>>> dir(dnn)
['Model', 'TensorProperties', '__doc__', '__file__', '__loader__', '__name__', '__package__', '__spec__', 'load', 'pyDNNTensor']

-------------------------------------------------------------------------------------------------------------------------------

AI推理引擎的更新可參考如下方式(出于系統(tǒng)安全、穩(wěn)定性的考慮,建議統(tǒng)一通過(guò)APT命令更新X3派板級(jí)開(kāi)發(fā)包):

-------------------------------------------------------------------------------------------------------------------------------

#更新package列表
sudo apt update
#升級(jí)所有已安裝的軟件包到最新版
sudo apt full-upgrade
#清除緩存文件(非必須)
sudo apt clean
#重啟設(shè)備
sudo reboot

-------------------------------------------------------------------------------------------------------------------------------

1 推理接口介紹

1.1 Model

AI算法模型類(lèi),描述模型的名稱(chēng),輸入、輸出數(shù)據(jù)屬性信息,forward 方法用來(lái)完成算法的推理。

-------------------------------------------------------------------------------------------------------------------------------

class hobot_dnn.pyeasy_dnn.Model
'''
Parameters
1、name (string):模型名稱(chēng)
2、inputs (tuple(hobot_dnn.pyeasy_dnn.pyDNNTensor)):模型的輸入tensor
3、outputs (tuple(hobot_dnn.pyeasy_dnn.pyDNNTensor)):模型的輸出tensor
4、forward (args &args, kwargs &kwargs):模型推理函數(shù)接口,輸入模型推理所必要的參數(shù),返回模型推理結(jié)果
parameters:
input_tensor:輸入數(shù)據(jù)
core_id (int):模型推理的core id,可為0,1,2,默認(rèn)為0表示任意核推理
priority (int):當(dāng)前模型推理任務(wù)的優(yōu)先級(jí),范圍[0~255],越大優(yōu)先級(jí)越高
'''

-------------------------------------------------------------------------------------------------------------------------------

其中,forward方法的input_tensor支持三種格式輸入:

poYBAGLUxLSAc49LAAEU1HRQngQ810.png

forward方法的返回值為模型推理結(jié)果,有如下兩種情況:

pYYBAGLUxLSAIOqJAADJF3iDWRc720.png

resizer模型指在模型轉(zhuǎn)換時(shí)input_source設(shè)置為“resizer”編譯生成的模型,相關(guān)配置方式可參考社區(qū)X3 用戶(hù)手冊(cè)。resizer模型推理時(shí),hobot_dnn會(huì)先使用ROI從輸入數(shù)據(jù)中摳圖后resize到模型輸入大小再送入模型進(jìn)行推理。
*目前resizer模式暫只支持單輸入的nv12/nv12_bt601模型。

1.2 pyDNNTensor

AI 算法輸入、輸出 tensor 類(lèi)

-------------------------------------------------------------------------------------------------------------------------------

class hobot_dnn.pyeasy_dnn.pyDNNTensor
'''
Parameters:
1、properties (TensorProperties):tensor的屬性,詳細(xì)參見(jiàn)本文1.3節(jié)
2、buffer (numpy):tensor中的數(shù)據(jù),數(shù)據(jù)訪問(wèn)方式同numpy
3、name (string):tensor的名稱(chēng)
'''

-------------------------------------------------------------------------------------------------------------------------------

1.3 TensorProperties

AI 算法輸入/輸出 tensor 的屬性類(lèi)

-------------------------------------------------------------------------------------------------------------------------------

class hobot_dnn.pyeasy_dnn.TensorProperties
'''
Parameters:
1、tensor_type (string):tensor的數(shù)據(jù)類(lèi)型,如:NV12、BGR、float32等
2、dtype (string):數(shù)據(jù)的存儲(chǔ)類(lèi)型,同numpy數(shù)據(jù)類(lèi)型,如:int8、uint8、float32等
3、layout (string):數(shù)據(jù)排布格式,NHWC或者NCHW
4、shape (tuple):數(shù)據(jù)的shape信息,例如:(1,3,224,224)
'''

-------------------------------------------------------------------------------------------------------------------------------

1.4 load

load接口用于加載模型

-------------------------------------------------------------------------------------------------------------------------------

hobot_dnn.pyeasy_dnn.load(model_file)
'''
接口支持兩種模型加載方式:
1、輸入模型的文件路徑,加載單個(gè)模型,或者單個(gè)pack模型
model_file = "/userdata/single_model.bin"
models = hobot_dnn.pyeasy_dnn.load(model_file)
2、輸入模型的文件列表,加載多個(gè)模型
model_file = ["model1.bin", "model2.bin"]
models = hobot_dnn.pyeasy_dnn.load(model_file)
接口返回hobot_dnn.pyeasy_dnn.Model類(lèi)型的tuple列表
'''

-------------------------------------------------------------------------------------------------------------------------------

2 快速上手示例

X3派配套AI推理示例默認(rèn)安裝在/app/ai_inference目錄下,包含如下示例:

-------------------------------------------------------------------------------------------------------------------------------

|-- 01_basic_sample # 從本地讀取圖片并完成mobilenetv1分類(lèi)模型推理
|-- 02_usb_camera_sample # 從USB camera獲取視頻數(shù)據(jù)并完成FCOS檢測(cè)模型推理
|-- 03_mipi_camera_sample # 從MIPI camera獲取視頻數(shù)據(jù)并完成FCOS檢測(cè)模型推理
|-- 05_web_display_camera_sample # 基于MIPI Camera的FCOS目標(biāo)檢測(cè)及web端展示
|-- 06_yolov3_sample # 從本地讀取圖片并完成Yolov3檢測(cè)模型推理
|-- 07_yolov5_sample # 從本地讀取圖片并完成Yolov5檢測(cè)模型推理
`-- models

-------------------------------------------------------------------------------------------------------------------------------

本節(jié)將以01_basic_sample為例,為大家展示如何使用hobot_dnn完成模型推理。運(yùn)行以下示例您需要準(zhǔn)備編譯好的混合異構(gòu)模型mobilenetv1_224x224_nv12.bin(存放于/app/ai_inference/models路徑下),以及一張圖片zebra_cls.jpg(存放于01_basic_sample文件夾下)。

-------------------------------------------------------------------------------------------------------------------------------

from hobot_dnn import pyeasy_dnn as dnn
import numpy as np
import cv2

# 查看模型輸入輸出節(jié)點(diǎn)的信息
def print_properties(pro):
print("tensor type:", pro.tensor_type)
print("data type:", pro.dtype)
print("layout:", pro.layout)
print("shape:", pro.shape)

# 依據(jù)模型input_type_rt決定是否需要進(jìn)行數(shù)據(jù)格式轉(zhuǎn)換(本實(shí)例所用模型為nv12輸入)
def bgr2nv12_opencv(image):
height, width = image.shape[0], image.shape[1]
area = height * width
yuv420p = cv2.cvtColor(image, cv2.COLOR_BGR2YUV_I420).reshape((area * 3 // 2,))
y = yuv420p[:area]
uv_planar = yuv420p[area:].reshape((2, area // 4))
uv_packed = uv_planar.transpose((1, 0)).reshape((area // 2,))

nv12 = np.zeros_like(yuv420p)
nv12[:height * width] = y
nv12[height * width:] = uv_packed
return nv12

# 1.加載模型
models = dnn.load('../models/mobilenetv1_224x224_nv12.bin')

# 2.查看模型輸入輸出節(jié)點(diǎn)的信息
for input in models[0].inputs:
print_properties(input.properties)
for output in models[0].outputs:
print_properties(output.properties)

# 3.準(zhǔn)備輸入數(shù)據(jù)
# 打開(kāi)圖片
img_file = cv2.imread('./zebra_cls.jpg')
# 把圖片縮放到模型的輸入尺寸
h, w = models[0].inputs[0].properties.shape[2], models[0].inputs[0].properties.shape[3]
resized_data = cv2.resize(img_file, (w, h), interpolation=cv2.INTER_AREA)
nv12_data = bgr2nv12_opencv(resized_data)

# 4.模型推理
outputs = models[0].forward(nv12_data)

# 5.后處理
np.argmax(outputs[0].buffer)
print("cls id: %d Confidence: %f" % (np.argmax(outputs[0].buffer), outputs[0].buffer[0][np.argmax(outputs[0].buffer)]))

-------------------------------------------------------------------------------------------------------------------------------

運(yùn)行上述示例,即可在終端查看到如下信息:

poYBAGLUxLiAW8JhAAZI3C0maJw059.png

本文轉(zhuǎn)自地平線開(kāi)發(fā)者社區(qū)

原作者:顏值即正義

原鏈接:https://developer.horizon.ai/forumDetail/98129467158916308

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    46698

    瀏覽量

    237195
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    FPGA和ASIC在大模型推理加速中的應(yīng)用

    隨著現(xiàn)在AI快速發(fā)展,使用FPGA和ASIC進(jìn)行推理加速的研究也越來(lái)越多,從目前的市場(chǎng)來(lái)說(shuō),有些公司已經(jīng)有了專(zhuān)門(mén)做推理的ASIC,像Groq的LPU,專(zhuān)門(mén)針對(duì)大語(yǔ)言模型的
    的頭像 發(fā)表于 10-29 14:12 ?165次閱讀
    FPGA和ASIC在大模型<b class='flag-5'>推理</b>加速中的應(yīng)用

    李開(kāi)復(fù):中國(guó)擅長(zhǎng)打造經(jīng)濟(jì)實(shí)惠的AI推理引擎

    10月22日上午,零一萬(wàn)物公司的創(chuàng)始人兼首席執(zhí)行官李開(kāi)復(fù)在與外媒的交流中透露,其公司旗下的Yi-Lightning(閃電模型)在推理成本上已實(shí)現(xiàn)了顯著優(yōu)勢(shì),比OpenAI的GPT-4o模型低了31倍。他強(qiáng)調(diào),中國(guó)擅長(zhǎng)打造經(jīng)濟(jì)實(shí)惠的AI
    的頭像 發(fā)表于 10-22 16:54 ?292次閱讀

    TMS320LF240x DSP的C語(yǔ)言和匯編代碼快速入門(mén)

    電子發(fā)燒友網(wǎng)站提供《TMS320LF240x DSP的C語(yǔ)言和匯編代碼快速入門(mén).pdf》資料免費(fèi)下載
    發(fā)表于 10-18 10:14 ?0次下載
    TMS320LF240<b class='flag-5'>x</b> DSP的C語(yǔ)言和匯編代碼<b class='flag-5'>快速</b><b class='flag-5'>入門(mén)</b>

    模擬DAC38RF8x輸入/輸出緩沖器信息的快速入門(mén)方法

    電子發(fā)燒友網(wǎng)站提供《模擬DAC38RF8x輸入/輸出緩沖器信息的快速入門(mén)方法.pdf》資料免費(fèi)下載
    發(fā)表于 10-09 11:21 ?0次下載
    模擬DAC38RF8<b class='flag-5'>x</b>輸入/輸出緩沖器信息的<b class='flag-5'>快速</b><b class='flag-5'>入門(mén)</b>方法

    AMD助力HyperAccel開(kāi)發(fā)全新AI推理服務(wù)器

    提高成本效率。HyperAccel 針對(duì)新興的生成式 AI 應(yīng)用提供超級(jí)加速的芯片 IP/解決方案。HyperAccel 已經(jīng)打造出一個(gè)快速、高效且低成本的推理系統(tǒng),加速了基于轉(zhuǎn)換器的大型語(yǔ)言模型
    的頭像 發(fā)表于 09-18 09:37 ?311次閱讀
    AMD助力HyperAccel開(kāi)發(fā)全新<b class='flag-5'>AI</b><b class='flag-5'>推理</b>服務(wù)器

    AM263x控制卡快速入門(mén)指南

    電子發(fā)燒友網(wǎng)站提供《AM263x控制卡快速入門(mén)指南.pdf》資料免費(fèi)下載
    發(fā)表于 08-27 10:35 ?0次下載
    AM263<b class='flag-5'>x</b>控制卡<b class='flag-5'>快速</b><b class='flag-5'>入門(mén)</b>指南

    如何基于OrangePi?AIpro開(kāi)發(fā)AI推理應(yīng)用

    。通過(guò)昇騰CANN軟件棧的AI編程接口,可滿足大多數(shù)AI算法原型驗(yàn)證、推理應(yīng)用開(kāi)發(fā)的需求。AscendCL(AscendComputingLanguage,昇騰計(jì)算
    的頭像 發(fā)表于 06-04 14:23 ?439次閱讀
    如何基于OrangePi?AIpro開(kāi)發(fā)<b class='flag-5'>AI</b><b class='flag-5'>推理</b>應(yīng)用

    CW32快速開(kāi)發(fā)入門(mén)

    CW32快速開(kāi)發(fā)入門(mén)
    的頭像 發(fā)表于 04-24 18:56 ?1846次閱讀
    CW32<b class='flag-5'>快速</b>開(kāi)發(fā)<b class='flag-5'>入門(mén)</b>

    開(kāi)發(fā)者手機(jī) AI - 目標(biāo)識(shí)別 demo

    識(shí)別demo: JS實(shí)現(xiàn)UI界面的功能; Native接口及實(shí)現(xiàn)主要為JS提供接口進(jìn)行AI推理。通過(guò)Native方式完成推理的前處理、推理以及后處理,這里通過(guò)調(diào)用opencv、Mind
    發(fā)表于 04-11 16:14

    AI推理框架軟件ONNX Runtime正式支持龍架構(gòu)

    近日,知名AI推理框架開(kāi)源社區(qū)ONNX Runtime正式發(fā)布支持龍架構(gòu)的版本1.17.0。
    的頭像 發(fā)表于 03-12 12:23 ?529次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>框架軟件ONNX Runtime正式支持龍架構(gòu)

    寶馬(中國(guó))召回部分進(jìn)口X3、2系和X4車(chē)型

    此次型號(hào)覆蓋的具體數(shù)量包括:2023年8月29日生產(chǎn)的進(jìn)口X3車(chē)型1輛,2023年9月21日至9月25日生產(chǎn)的進(jìn)口2系車(chē)型2輛,以及同一期間生產(chǎn)的進(jìn)口X4車(chē)型48輛。
    的頭像 發(fā)表于 03-01 14:56 ?746次閱讀

    allegro快速入門(mén)教程

    電子發(fā)燒友網(wǎng)站提供《allegro快速入門(mén)教程.pdf》資料免費(fèi)下載
    發(fā)表于 02-29 09:32 ?68次下載

    科大訊飛推出AI掃拖機(jī)器人X3:主打“指哪掃哪”

    機(jī)器人AI
    北京中科同志科技股份有限公司
    發(fā)布于 :2024年02月22日 10:11:12

    AI算法在RZ/V芯片中的移植推理流程

    之前文章已介紹了一些AI算法Demo的應(yīng)用 ,我們提供從模型訓(xùn)練到RZ/V系列嵌入式端推理應(yīng)用的完整流程。整體流程如下圖所示。
    的頭像 發(fā)表于 12-20 12:21 ?1003次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>算法</b>在RZ/V芯片中的移植<b class='flag-5'>推理</b>流程

    HarmonyOS:使用MindSpore Lite引擎進(jìn)行模型推理

    場(chǎng)景介紹 MindSpore Lite 是一款 AI 引擎,它提供了面向不同硬件設(shè)備 AI 模型推理的功能,目前已經(jīng)在圖像分類(lèi)、目標(biāo)識(shí)別、人臉識(shí)別、文字識(shí)別等應(yīng)用中廣泛使用。 本文介紹
    發(fā)表于 12-14 11:41