0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在 NGC 上玩轉(zhuǎn)新一代推理部署工具 FastDeploy,幾行代碼搞定 AI 部署

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:未知 ? 2022-12-13 19:50 ? 次閱讀

號(hào)外:

全場(chǎng)景高性能 AI 部署工具

FastDeploy 發(fā)版 v1.0

幾行代碼搞定 AI 部署,快速使用 150+ 預(yù)置部署示例,支持 CV、NLP、Speech、Cross-model 模型,并提供開箱即用的云邊端部署體驗(yàn),實(shí)現(xiàn) AI 模型端到端的推理性能優(yōu)化。

歡迎廣大開發(fā)者使用 NVIDIA 與飛槳聯(lián)合深度適配的 NGC 飛槳容器,在 NVIDIA GPU 上進(jìn)行體驗(yàn) FastDeploy!

全場(chǎng)景高性能 AI 部署工具 FastDeploy

人工智能技術(shù)在各行各業(yè)正加速應(yīng)用落地。為了向開發(fā)者提供產(chǎn)業(yè)實(shí)踐推理部署最優(yōu)解,百度飛槳發(fā)起了 FastDeploy 開源項(xiàng)目。FastDeploy 具備全場(chǎng)景、簡(jiǎn)單易用、極致高效三大特點(diǎn)。

(1)簡(jiǎn)單易用:幾行代碼完成 AI 模型的 GPU 部署,一行命令切換推理后端,快速體驗(yàn) 150+ 熱門模型部署

FastDeploy 精心設(shè)計(jì)模型 API,不同語(yǔ)言統(tǒng)一 API 體驗(yàn),只需要幾行核心代碼,就可以實(shí)現(xiàn)預(yù)知模型的高性能推理,極大降低了 AI 模型部署難度和工作量。一行命令切換 TensorRT、Paddle Inference、ONNX Runtime、Poros 等不同推理后端,充分利用推理引擎在 GPU 硬件上的優(yōu)勢(shì)。

import fastdeploy as fd
import cv2
option = fd.RuntimeOption()
option.use_gpu()
option.use_trt_backend() # 一行命令切換使用 TensorRT部署
model = fd.vision.detection.PPYOLOE("model.pdmodel", 
                                    "model.pdiparams", 
                                    "infer_cfg.yml",
                                    runtime_option=option)
im = cv2.imread("test.jpg")
result=model.predict(im)

FastDeploy 幾行命令完成 AI 模型部署

FastDeploy 支持 CV、NLP、Speech、Cross-modal(跨模態(tài))四大 AI 領(lǐng)域,覆蓋 20 多主流場(chǎng)景、150 多個(gè) SOTA 產(chǎn)業(yè)模型的端到端示例,包括圖像分類、圖像分割、語(yǔ)義分割、物體檢測(cè)、字符識(shí)別(OCR)、人臉檢測(cè)、人臉關(guān)鍵點(diǎn)檢測(cè)、人臉識(shí)別、人像扣圖、視頻扣圖、姿態(tài)估計(jì)、文本分類、信息抽取、文圖生成、行人跟蹤、語(yǔ)音合成等。支持飛槳 PaddleClas、PaddleDetection、PaddleSeg、PaddleOCR、PaddleNLP、PaddleSpeech 6 大熱門 AI 套件的主流模型及生態(tài)(如 PyTorch、ONNX 等)熱門模型的部署。

ce727aea-7adb-11ed-8abf-dac502259ad0.png

FastDeploy 在 NVIDIA GPU、Jetson上的 AI 模型部署庫(kù)

(2)全場(chǎng)景:支持多框架,輕松搞定 PaddlePaddle、PyTorch、ONNX 等模型部署

FastDeploy 支持 TensorRT、Paddle Inference、ONNX Runtime、Poros 推理引擎,統(tǒng)一部署 API,只需要一行代碼,便可靈活切換多個(gè) GPU 推理引擎后端。內(nèi)置了 X2Paddle 和 Paddle2ONNX 模型轉(zhuǎn)換工具,只需要一行命令便可完成其他深度學(xué)習(xí)框架到飛槳以及 ONNX 的相互轉(zhuǎn)換,讓其他框架的開發(fā)者也能通過(guò) FastDeploy 體驗(yàn)到飛槳模型壓縮與推理引擎的端到端優(yōu)化效果。覆蓋 GPU、Jetson Nano、Jetson TX2、Jetson AGX、Jetson Orin 等云邊端場(chǎng)景全系列 NVIDIA 硬件部署。同時(shí)支持服務(wù)化部署、離線部署、端側(cè)部署方式。

cefeae48-7adb-11ed-8abf-dac502259ad0.png

(3)極致高效:一鍵壓縮提速,預(yù)處理加速,端到端性能優(yōu)化,提升 AI 算法產(chǎn)業(yè)落地

FastDeploy 集成了自動(dòng)壓縮工具,在參數(shù)量大大減小的同時(shí)(精度幾乎無(wú)損),推理速度大幅提升。使用 CUDA 加速優(yōu)化預(yù)處理和后處理模塊,將 YOLO 系列的模型推理加速整體從 41ms 優(yōu)化到 25ms。端到端的優(yōu)化策略,徹底解決 AI 部署落地中的性能難題。更多性能優(yōu)化,歡迎關(guān)注 GitHub 了解詳情。

https://github.com/PaddlePaddle/FastDeploy

cf2995a4-7adb-11ed-8abf-dac502259ad0.png

FastDeploy 一行命令實(shí)現(xiàn)自動(dòng)壓縮,充分利用硬件資源提升推理速度

cf465f7c-7adb-11ed-8abf-dac502259ad0.png

FastDeploy 提升 AI 任務(wù)端到端推理速

直播預(yù)告:服務(wù)化部署高并發(fā)調(diào)優(yōu)實(shí)戰(zhàn)

12 月 12 日 - 12 月 30 日,《產(chǎn)業(yè)級(jí) AI 模型部署全攻略》系列直播課程,F(xiàn)astDeploy 聯(lián)合 10 家硬件公司與大家直播見面。

12 月 14 日 20:30 開始,NVIDIA 與百度資深專家將為大家?guī)?lái)以“一鍵搞定服務(wù)化部署,實(shí)現(xiàn)穩(wěn)定高并發(fā)服務(wù)”為主題的精彩分享,詳細(xì)解說(shuō) FastDeploy 服務(wù)化部署實(shí)戰(zhàn)教學(xué),以及如何提升 GPU 利用率和吞吐量!歡迎大家掃碼報(bào)名獲取直播鏈接,加入交流群與行業(yè)精英深度共同探討 AI 部署落地話題。

一鍵搞定服務(wù)化部署

實(shí)現(xiàn)穩(wěn)定高并發(fā)服務(wù)

cf8eaeb2-7adb-11ed-8abf-dac502259ad0.png

12 月 14 日,星期三,20:30

精彩亮點(diǎn)

  • 企業(yè)級(jí) NGC 容器,快速獲取強(qiáng)大的軟硬件能力

  • 三行代碼搞定 AI 部署,一鍵體驗(yàn) 150+ 部署 demo

  • 服務(wù)化部署實(shí)戰(zhàn)教學(xué),提升 GPU 利用率和吞吐量

會(huì)議嘉賓

cfa5c0fc-7adb-11ed-8abf-dac502259ad0.jpg

Adam | NVIDIA 亞太區(qū)資深產(chǎn)品經(jīng)理

cfd0522c-7adb-11ed-8abf-dac502259ad0.png

Jason|百度資深研發(fā)工程師

參與方式

d0400824-7adb-11ed-8abf-dac502259ad0.png

掃碼報(bào)名獲取直播鏈接


原文標(biāo)題:在 NGC 上玩轉(zhuǎn)新一代推理部署工具 FastDeploy,幾行代碼搞定 AI 部署

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3637

    瀏覽量

    89833

原文標(biāo)題:在 NGC 上玩轉(zhuǎn)新一代推理部署工具 FastDeploy,幾行代碼搞定 AI 部署

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    混合部署 | RK3568同時(shí)部署RT-Thread和Linux系統(tǒng)-迅為電子

    混合部署 | RK3568同時(shí)部署RT-Thread和Linux系統(tǒng)-迅為電子
    的頭像 發(fā)表于 09-06 15:32 ?170次閱讀
    混合<b class='flag-5'>部署</b> | <b class='flag-5'>在</b>RK3568<b class='flag-5'>上</b>同時(shí)<b class='flag-5'>部署</b>RT-Thread和Linux系統(tǒng)-迅為電子

    三行代碼完成生成式AI部署

    LLM加載與推理部署能力,實(shí)現(xiàn)了OpenVINO對(duì)CNN網(wǎng)絡(luò)、生成式模型、LLM網(wǎng)絡(luò)主流模型的全面推理支持。
    的頭像 發(fā)表于 08-30 16:49 ?228次閱讀
    三行<b class='flag-5'>代碼</b>完成生成式<b class='flag-5'>AI</b><b class='flag-5'>部署</b>

    Yuan2.0千億大模型通用服務(wù)器NF8260G7推理部署

    巨量模型的智能生產(chǎn)力正在逐步滲透到各行各業(yè),但它們的部署和運(yùn)行通常需要專用的AI加速卡,能否CPU運(yùn)行千億大模型,對(duì)千行百業(yè)智能化轉(zhuǎn)型的深化與普惠至關(guān)重要。
    的頭像 發(fā)表于 07-30 14:26 ?256次閱讀
    Yuan2.0千億大模型<b class='flag-5'>在</b>通用服務(wù)器NF8260G7<b class='flag-5'>上</b>的<b class='flag-5'>推理</b><b class='flag-5'>部署</b>

    鴻蒙實(shí)戰(zhàn)開發(fā)-本地部署、SmartPerf 編譯部署指導(dǎo)文檔

    install 項(xiàng)目目錄下運(yùn)行命令: npm run build 編譯成功后會(huì)有main 可執(zhí)行文件生成。 項(xiàng)目部署 直接運(yùn)行 ./main 可執(zhí)行程序,完成項(xiàng)目的部署。 訪問(wèn)項(xiàng)目
    發(fā)表于 05-09 14:23

    簡(jiǎn)單兩步使用OpenVINO?搞定Qwen2的量化與部署任務(wù)

    英特爾 OpenVINO? 工具套件是款開源 AI 推理優(yōu)化部署工具套件,可幫助開發(fā)人員和企
    的頭像 發(fā)表于 04-26 09:39 ?1321次閱讀
    簡(jiǎn)單兩步使用OpenVINO?<b class='flag-5'>搞定</b>Qwen2的量化與<b class='flag-5'>部署</b>任務(wù)

    簡(jiǎn)單三步使用OpenVINO?搞定ChatGLM3的本地部署

    英特爾 OpenVINO? 工具套件是款開源 AI 推理優(yōu)化部署工具套件,可幫助開發(fā)人員和企
    的頭像 發(fā)表于 04-03 18:18 ?1827次閱讀
    簡(jiǎn)單三步使用OpenVINO?<b class='flag-5'>搞定</b>ChatGLM3的本地<b class='flag-5'>部署</b>

    使用CUBEAI部署tflite模型到STM32F0中,模型創(chuàng)建失敗怎么解決?

    看到CUBE_AI已經(jīng)支持到STM32F0系列芯片,就想拿來(lái)入門嵌入式AI。 生成的模型很小,是可以部署到F0的,但是直無(wú)法創(chuàng)建成功。
    發(fā)表于 03-15 08:10

    基于OpenCV DNN實(shí)現(xiàn)YOLOv8的模型部署推理演示

    基于OpenCV DNN實(shí)現(xiàn)YOLOv8推理的好處就是代碼就可以部署Windows10系統(tǒng)、烏班圖系統(tǒng)、Jetson的Jetpack系
    的頭像 發(fā)表于 03-01 15:52 ?1011次閱讀
    基于OpenCV DNN實(shí)現(xiàn)YOLOv8的模型<b class='flag-5'>部署</b>與<b class='flag-5'>推理</b>演示

    【愛芯派 Pro 開發(fā)板試用體驗(yàn)】模型部署(以mobilenetV2為例)

    樣的,只不過(guò)主角這次換成了pulsar2: 1、先在服務(wù)器訓(xùn)練好網(wǎng)絡(luò)模型,并以個(gè)通用的中間形式導(dǎo)出(通常是onnx) 2、根據(jù)你要使用的推理引擎進(jìn)行離線轉(zhuǎn)換,把onnx轉(zhuǎn)換成你的推理
    發(fā)表于 12-10 16:34

    jrebel和idea熱部署優(yōu)勢(shì)

    JRebel 和 IntelliJ IDEA 是兩個(gè)常用的開發(fā)工具,它們可以提供熱部署的功能,極大地提高了開發(fā)效率。下面將詳細(xì)介紹 JRebel 和 IntelliJ IDEA 熱部署的優(yōu)勢(shì)。 提高
    的頭像 發(fā)表于 12-03 15:16 ?618次閱讀

    云天勵(lì)飛發(fā)布新一代邊緣AI芯片,采用Chiplet技術(shù),可運(yùn)行百億級(jí)大模型

    工藝,內(nèi)含國(guó)產(chǎn)RISC-V核,支持大模型推理部署。 ? 云天勵(lì)飛新一代自研AI SoC DeepEdge10 ? 大模型邊緣運(yùn)行對(duì)
    的頭像 發(fā)表于 11-23 01:08 ?2370次閱讀
    云天勵(lì)飛發(fā)布<b class='flag-5'>新一代</b>邊緣<b class='flag-5'>AI</b>芯片,采用Chiplet技術(shù),可運(yùn)行百億級(jí)大模型

    云天勵(lì)飛重磅發(fā)布新一代AI芯片DeepEdge10

    11月15日,高交會(huì)開幕式,云天勵(lì)飛重磅發(fā)布新一代AI芯片DeepEdge10。 云天勵(lì)飛董事長(zhǎng)兼CEO陳寧博士高交會(huì)開幕式
    的頭像 發(fā)表于 11-16 09:16 ?1177次閱讀

    Hugging Face LLM部署大語(yǔ)言模型到亞馬遜云科技Amazon SageMaker推理示例

    ?本篇文章主要介紹如何使用新的Hugging Face LLM推理容器將開源LLMs,比如BLOOM大型語(yǔ)言模型部署到亞馬遜云科技Amazon SageMaker進(jìn)行推理的示例。我們將部署
    的頭像 發(fā)表于 11-01 17:48 ?769次閱讀
    Hugging Face LLM<b class='flag-5'>部署</b>大語(yǔ)言模型到亞馬遜云科技Amazon SageMaker<b class='flag-5'>推理</b>示例

    介紹款基于昆侖芯AI加速卡的高效模型推理部署框架

    昆侖芯科技公眾號(hào)全新欄目“用芯指南”重磅推出!面向AI行業(yè)技術(shù)從業(yè)者,系列好文將提供手把手的昆侖芯產(chǎn)品使用指南。第期圍繞昆侖芯自研效能工具——昆侖芯Anyinfer展開,這是款基于
    的頭像 發(fā)表于 10-17 11:16 ?1496次閱讀
    介紹<b class='flag-5'>一</b>款基于昆侖芯<b class='flag-5'>AI</b>加速卡的高效模型<b class='flag-5'>推理</b><b class='flag-5'>部署</b>框架

    SpringBoot 如何實(shí)現(xiàn)熱部署

    部署是軟件開發(fā)中個(gè)非常有用的功能,它允許我們不重新啟動(dòng)整個(gè)應(yīng)用的情況下,依舊能夠使我們修改的代碼生效。 現(xiàn)在Java Web 開發(fā)應(yīng)該都是使用的 SpringBoot,那么本篇文
    的頭像 發(fā)表于 09-30 10:16 ?730次閱讀
    SpringBoot 如何實(shí)現(xiàn)熱<b class='flag-5'>部署</b>