0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于AX650N部署視覺大模型DINOv2

愛芯元智AXERA ? 來源:愛芯元智AXERA ? 2023-06-30 10:07 ? 次閱讀

背景

最近一段時間,基于Transformer網(wǎng)絡(luò)結(jié)構(gòu)的視覺大模型呈現(xiàn)出爆發(fā)式增長,繼Segment Anything(SAM)之后,Meta AI再次發(fā)布重量級開源項目——DINOv2。DINOv2可以抽取到強(qiáng)大的圖像特征,且在下游任務(wù)上不需要微調(diào),這使得它適合作為許多不同的應(yīng)用中新的Backbone。

與之前發(fā)布的Segment Anything相比,DINOv2在應(yīng)用領(lǐng)域和適用范圍上更加廣泛,原論文中的實驗也涵蓋了多個CV中經(jīng)典的下游任務(wù)。

DINOv2簡介

在Meta AI官方的Blog中,將DINOv2的特性總結(jié)如下:

● 自監(jiān)督訓(xùn)練

●無需Fine Tuning即可遷移至下游任務(wù)

●開箱即用的視覺基座大模型

DINOv2是一種新的高精度計算機(jī)視覺模型訓(xùn)練方法,使用自監(jiān)督學(xué)習(xí)來實現(xiàn)與該領(lǐng)域中使用的標(biāo)準(zhǔn)方法相匹配。與其他自監(jiān)督系統(tǒng)一樣,使用DINOv2方法的模型可以在不需要任何相關(guān)原數(shù)據(jù)的情況下對任何圖像集合進(jìn)行訓(xùn)練。這意味著它可以從它所接收到的所有圖像中學(xué)習(xí),而不僅僅是那些包含特定一組標(biāo)簽或標(biāo)題的圖像。DINOv2提供了可直接用作簡單線性分類器輸入的高性能特征。這種靈活性意味著DINOv2可用于創(chuàng)建許多不同計算機(jī)視覺任務(wù)的多用途骨干。

Visualization of PCA

論文中的實驗展示了DINOv2在下游任務(wù)上的出色能力,例如分類、分割和圖像檢索等應(yīng)用領(lǐng)域。其中,最令人驚訝的是,在深度估計方面,DINOv2的結(jié)果明顯優(yōu)于in-domain與out-of-domain的SOTA的pipeline。作者認(rèn)為這種強(qiáng)大的域外表現(xiàn)是自監(jiān)督特征學(xué)習(xí)和輕量級任務(wù)特定模塊(例如線性分類器)相結(jié)合的結(jié)果。

AX650N

AX650N是一款兼具高算力與高能效比的SoC芯片,集成了八核Cortex-A55 CPU,10.8TOPs@INT8 NPU(針對Transformer模型進(jìn)行了定制優(yōu)化),支持8K@30fps的ISP,以及H.264、H.265編解碼的VPU。接口方面,AX650N支持64bit LPDDR4x,多路MIPI輸入,千兆Ethernet、USB、以及HDMI 2.0b輸出,并支持32路1080p@30fps解碼。強(qiáng)大的性能可以讓AX650N幫助用戶在智慧城市、智慧教育、智能制造等領(lǐng)域發(fā)揮更大的價值。

模型轉(zhuǎn)換

本文以DINOv2提供的Pretrained model:ViT-S/14為例介紹部署流程。

4.1 模型下載

●下載DINOv2的開源項目

git clone https://github.com/facebookresearch/dinov2.git

●進(jìn)入dinov2目錄,使用下列文件替換 dinov2/models/vision_transformer.py

vision_transformer.py可從我們的開源項目中獲取

https://github.com/AXERA-TECH/ax-samples/releases/download/v0.4/vision_transformer.py

●獲取ONNX模型,在dinov2根目錄下執(zhí)行

from dinov2.models import vision_transformer as vits
import torch


_DINOV2_BASE_URL = "https://dl.fbaipublicfiles.com/dinov2"


def _make_dinov2_model_name(arch_name: str, patch_size: int) -> str:
  compact_arch_name = arch_name.replace("_", "")[:4]
  return f"dinov2_{compact_arch_name}{patch_size}"


def make_model(
  *,
  arch_name: str = "vit_large",
  img_size: int = 518,
  patch_size: int = 14,
  init_values: float = 1.0,
  ffn_layer: str = "mlp",
  block_chunks: int = 0,
  pretrained: bool = True,
  **kwargs,
):
  model_name = _make_dinov2_model_name(arch_name, patch_size)
  vit_kwargs = dict(
    img_size=img_size,
    patch_size=patch_size,
    init_values=init_values,
    ffn_layer=ffn_layer,
    block_chunks=block_chunks,
  )
  vit_kwargs.update(**kwargs)
  model = vits.__dict__[arch_name](**vit_kwargs)


  if pretrained:
    url = _DINOV2_BASE_URL + f"/{model_name}/{model_name}_pretrain.pth"
    state_dict = torch.hub.load_state_dict_from_url(url, map_location="cpu")
    model.load_state_dict(state_dict, strict=False)


  return model


model = make_model(arch_name="vit_small", pretrained=True)
model.eval()


dummy_input = torch.randn(1, 3, 518, 518, dtype=torch.float32)
torch.onnx.export(model, dummy_input, "dinov2_small_518.onnx", verbose=True,

使用onnxsim優(yōu)化計算圖,得到dinov2_small_518-sim.onnx模型

$ onnxsim dinov2_small_518.onnx dinov2_small_518-sim.onnx
Simplifying...
Finish! Here is the difference:
┏━━━━━━━━━━━━━━━━━┳━━━━━━━━━━━━━━━━┳━━━━━━━━━━━━━━━━━━┓
┃         ┃ Original Model ┃ Simplified Model ┃
┡━━━━━━━━━━━━━━━━━╇━━━━━━━━━━━━━━━━╇━━━━━━━━━━━━━━━━━━┩
│ Add       │ 135      │ 135       │
│ Concat     │ 2       │ 1        │
│ Constant    │ 143      │ 0        │
│ ConstantOfShape │ 1       │ 0        │
│ Conv      │ 1       │ 1        │
│ Div       │ 37       │ 37        │
│ Equal      │ 1       │ 0        │
│ Erf       │ 12       │ 12        │
│ Expand     │ 1       │ 0        │
│ Gather     │ 36       │ 36        │
│ MatMul     │ 72       │ 72        │
│ Mul       │ 86       │ 85        │
│ Pow       │ 25       │ 25        │
│ ReduceMean   │ 50       │ 50        │
│ Reshape     │ 25       │ 25        │
│ Shape      │ 1       │ 0        │
│ Slice      │ 2       │ 1        │
│ Softmax     │ 12       │ 12        │
│ Sqrt      │ 25       │ 25        │
│ Sub       │ 25       │ 25        │
│ Transpose    │ 37       │ 37        │
│ Where      │ 1       │ 0        │
│ Model Size   │ 85.6MiB    │ 85.4MiB     │
└─────────────────┴────────────────┴──────────────────┘

從onnxsim的輸出log可見,采用ONNX模型格式支持DINOv2模型只需要支持Add、Concat、Conv、Div、Erf、Gather、MatMul、Mul、Pow、ReduceMean、Reshape、Slice、Softmax、Sqrt、Sub、Transpose算子即可,而這些算子均在AX650N的算子支持列表中。

4.2 模型編譯

使用AX650N配套的AI工具鏈Pulsar2,一鍵完成圖優(yōu)化、離線量化、編譯、對分功能。

$ pulsar2 build --input model/dinov2_small_518-sim.onnx --output_dir dinov2 --config config/dinov2_config.json
Building onnx ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 100% 0:00:00
patool: Extracting ./dataset/imagenet-32-images.tar ...
Transformer optimize level: 1
32 File(s) Loaded.
[10:57:11] AX Quantization Fusion Pass Running ...    Finished.
......
[11:05:52] AX Refine Int Parameter Pass Running ...    Finished.
Network Quantization Finished.
quant.axmodel export success: dinov2/quant/quant_axmodel.onnx
Building native ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 100% 0:00:00
Building native ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 100% 0:00:00
2023-06-15 11:06:21.367 | INFO   | yamain.command.build842 - unsupported ops: []
tiling op...  ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 572/572 0:00:00
build op...  ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 1152/1152 0:00:13
......
2023-06-15 11:06:45.845 | INFO   | yasched.test_onepass1947 - max_cycle = 22347641
2023-06-15 11:06:57.014 | INFO   | yamain.command.build971 - QuantAxModel macs: 46696739328
2023-06-15 11:07:42.507 | INFO   | yamain.command.build:com

其中,config.json如下所示。本次示例單獨展示config.json的目的是為了說明AX650N的工具鏈針對Transformer模型有特制的量化精度調(diào)優(yōu)配置,開啟后生成的模型精度更佳。

{
 "model_type": "ONNX",
 "npu_mode": "NPU3",
 "quant": {
  "input_configs": [
   {
    "tensor_name": "DEFAULT",
    "calibration_dataset": "./dataset/imagenet-32-images.tar",
    "calibration_size": 32,
    "calibration_mean": [123.675, 116.28, 103.53],
    "calibration_std": [58.395, 57.12, 57.375]
   }
  ],
  "calibration_method": "MSE",
  "transformer_opt_level": 1
 },
 "input_processors": [
  {
   "tensor_name": "DEFAULT",
   "tensor_format": "RGB",
   "src_format": "BGR",
   "src_dtype": "U8",
   "src_layout": "NHWC"
  }
 ],
 "compiler": {
  "check": 0
 }
}

上板部署

5.1 AX-Samples

開源項目AX-Samples實現(xiàn)了常見的深度學(xué)習(xí)開源算法在愛芯元智的AI SoC上的示例代碼,方便社區(qū)開發(fā)者進(jìn)行快速評估和適配。

最新版本已開始提供AX650系列的NPU示例,其中也包含了本文介紹的DINOv2參考代碼。

https://github.com/AXERA-TECH/ax-samples/blob/main/examples/ax650/ax_dinov2_steps.cc

5.2 運(yùn)行

由于DINOv2官方的Model ZOO只提供了基座模型,所以只能參考其PCA實現(xiàn)輸出特征圖可視化。

●“測試圖片1”:DINOv2能夠清晰的區(qū)分“小柴犬”的軀干、前爪、狗頭、眼睛、鼻子、耳朵等語義信息

●“測試圖片2”:DINOv2能夠清晰的區(qū)分圖中小狗、自行車、護(hù)欄等語義信息。

5.3 性能統(tǒng)計

model Input Size AX650N推理耗時(ms) 幀率
ViT-S/14 distilled 518*518 28 35
ViT-B/14 distilled 518*518 92 10
ViT-L/14 distilled 518*518 305 3

結(jié)束語

DINOv2作為一種無需Fine Tuning的自監(jiān)督方法,在提取圖像特征方面表現(xiàn)出色,適用于許多不同的視覺任務(wù)。期待更多基于DINOv2的下游任務(wù)出現(xiàn)。

審核編輯:湯梓紅
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    14

    文章

    7389

    瀏覽量

    88216
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    28877

    瀏覽量

    266240
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3032

    瀏覽量

    48366

原文標(biāo)題:愛芯分享 | 基于AX650N部署視覺大模型DINOv2

文章出處:【微信號:愛芯元智AXERA,微信公眾號:愛芯元智AXERA】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    基于AX650N/AX620Q部署YOLO-World

    目標(biāo)檢測是計算機(jī)視覺領(lǐng)域一項重要的任務(wù)。開集目標(biāo)檢測(Open-set Object Detection)與閉集目標(biāo)檢測(Closed-set Object Detection)是目標(biāo)檢測領(lǐng)域的兩個概念。
    的頭像 發(fā)表于 04-17 15:36 ?2876次閱讀
    基于<b class='flag-5'>AX650N</b>/<b class='flag-5'>AX</b>620Q<b class='flag-5'>部署</b>YOLO-World

    基于AX650N/AX630C部署端側(cè)大語言模型Qwen2

    本文將分享如何將最新的端側(cè)大語言模型部署到超高性價比SoC上,向業(yè)界對端側(cè)大模型部署的開發(fā)者提供一種新的思路。
    的頭像 發(fā)表于 07-06 17:43 ?2807次閱讀
    基于<b class='flag-5'>AX650N</b>/<b class='flag-5'>AX</b>630C<b class='flag-5'>部署</b>端側(cè)大語言<b class='flag-5'>模型</b>Qwen<b class='flag-5'>2</b>

    愛芯元智發(fā)布第三代智能視覺芯片AX650N,為智慧生活賦能

    中國 上海 2023 年 3 月 6 日 ——人工智能視覺感知芯片研發(fā)及基礎(chǔ)算力平臺公司愛芯元智宣布推出第三代高算力、高能效比的SoC芯片——AX650N。這是繼AX620、AX630
    發(fā)表于 03-07 10:57 ?1469次閱讀
    愛芯元智發(fā)布第三代智能<b class='flag-5'>視覺</b>芯片<b class='flag-5'>AX650N</b>,為智慧生活賦能

    【愛芯派 Pro 開發(fā)板試用體驗】使用yolov5s模型(官方)

    :/home/ax-samples/build/install/ax650# 后續(xù)摸索部署自己的yolov5模型到m4n-dock上
    發(fā)表于 11-13 11:04

    【愛芯派 Pro 開發(fā)板試用體驗】篇一:開箱篇

    了豐富的外設(shè)可供用戶方便地進(jìn)行調(diào)試。它可幫助用戶在智慧城市、智慧教育、智能創(chuàng)造等領(lǐng)域發(fā)揮更大的價值。 上圖: 關(guān)于AX650N:愛芯元智推出的又一款高性能智能視覺芯片。一款高畫質(zhì),高能效比
    發(fā)表于 11-15 11:32

    【愛芯派 Pro 開發(fā)板試用體驗】愛芯元智AX650N部署yolov5s 自定義模型

    愛芯元智AX650N部署yolov5s 自定義模型 本博客將向你展示零基礎(chǔ)一步步的部署好自己的yolov5s模型(博主展示的是安全帽
    發(fā)表于 11-16 19:34

    【愛芯派 Pro 開發(fā)板試用體驗】愛芯元智AX650N部署yolov8s 自定義模型

    愛芯元智AX650N部署yolov8s 自定義模型 本博客將向你展示零基礎(chǔ)一步步的部署好自己的yolov8s模型(博主展示的是自己訓(xùn)練的手
    發(fā)表于 11-24 20:40

    【愛芯派 Pro 開發(fā)板試用體驗】ax650使用ax-pipeline進(jìn)行推理

    /AXERA-TECH/ax-pipeline.git 下載sdk cd ax-pipeline ./download_ax_bsp.sh ax650 cd
    發(fā)表于 12-19 17:36

    愛芯元智第三代智能視覺芯片AX650N高能效比SoC芯片

    愛芯元智正式推出第三代高算力、高能效比的SoC芯片——AX650N。這是繼AX620、AX630系列后,愛芯元智推出的又一款高性能智能視覺芯片。 A
    的頭像 發(fā)表于 03-10 17:13 ?3711次閱讀

    如何優(yōu)雅地將Swin Transformer模型部署AX650N Demo板上?

    今年來以ChatGPT為代表的大模型的驚艷效果,讓AI行業(yè)迎來了新的動力。各種AIGC的應(yīng)用接踵而至。
    的頭像 發(fā)表于 04-15 10:15 ?2033次閱讀

    基于AX650N部署DETR

    目標(biāo)檢測作為計算機(jī)視覺應(yīng)用的基礎(chǔ)任務(wù),一直備受行業(yè)應(yīng)用重點關(guān)注。從最早學(xué)術(shù)界的Two-Stage方案Faster-RCNN,到首個利于工業(yè)界高效率部署的One-Stage方案SSD(Single
    的頭像 發(fā)表于 05-15 14:27 ?735次閱讀
    基于<b class='flag-5'>AX650N</b><b class='flag-5'>部署</b>DETR

    基于AX650N部署EfficientViT

    的速度。為了實現(xiàn)對ViT模型的實時部署,微軟和港中文共同在CVPR2023提出論文《EfficientViT: Memory Efficient Vision Transformer with Cascaded Group Attention》。
    的頭像 發(fā)表于 05-26 10:30 ?897次閱讀

    基于AX650N部署SegFormer

    語義分割(Semantic Segmentation)是計算機(jī)視覺中的一項基本任務(wù)。與單張圖像分類任務(wù)相比,語義分割相當(dāng)于是像素級別上的分類任務(wù)。語義分割為許多下游應(yīng)用特別是近幾年來的智能駕駛技術(shù)的落地提供了可能。
    的頭像 發(fā)表于 06-20 16:37 ?545次閱讀
    基于<b class='flag-5'>AX650N</b><b class='flag-5'>部署</b>SegFormer

    基于AX650N部署SegFormer

    語義分割(Semantic Segmentation)是計算機(jī)視覺中的一項基本任務(wù)。與單張圖像分類任務(wù)相比,語義分割相當(dāng)于是像素級別上的分類任務(wù)。
    的頭像 發(fā)表于 06-20 16:37 ?605次閱讀
    基于<b class='flag-5'>AX650N</b><b class='flag-5'>部署</b>SegFormer

    愛芯元智AX620E和AX650系列芯片正式通過PSA Certified安全認(rèn)證

    萬物互聯(lián)的時代,安全性已成為物聯(lián)網(wǎng)產(chǎn)品設(shè)計及部署的基本要求。近日,愛芯元智AX620E和AX650系列芯片(包含AX630C/AX620Q/
    的頭像 發(fā)表于 04-23 15:45 ?627次閱讀
    愛芯元智<b class='flag-5'>AX</b>620E和<b class='flag-5'>AX650</b>系列芯片正式通過PSA Certified安全認(rèn)證