0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

使用Jetson Xavier NX 開發(fā)者工具包部署AI應用程序

星星科技指導員 ? 來源:NVIDIA ? 作者:Ankita Sharma ? 2022-04-28 14:39 ? 次閱讀

現(xiàn)代對敏捷能力和零停機時間持續(xù)創(chuàng)新的期望要求改變嵌入式和邊緣設備軟件的開發(fā)和部署方式。在邊緣采用諸如微服務、容器化和容器編排之類的云原生范式是前進的方向,但是部署、管理和安全問題的復雜性阻礙了擴展。

NVIDIA EGX 平臺是一個基于云的 Kubernetes 和基于容器的軟件平臺,使您能夠快速、輕松地為基于 NVIDIA Jetson 的微服務器或邊緣物聯(lián)網(wǎng)系統(tǒng)提供資源。通過為 Jetson Xavier NX 邊緣設備帶來 EGX 云本地敏捷性,企業(yè)可以使用與云革命相同的技術(shù)和工作流來大規(guī)模構(gòu)建、部署和管理邊緣設備。

在本文中,您將了解云原生軟件棧的關鍵組件,如何在 Jetson Xavier NX 開發(fā)者工具包上安裝 EGX DIY 堆棧,并使用它在邊緣輕松部署智能視頻分析( IVA )應用程序。

人工智能容器

如今的企業(yè)正在將智能轉(zhuǎn)移到邊緣,并在地理位置不同的存在點( POP )部署邊緣基礎設施,以實現(xiàn)更低的網(wǎng)絡成本和更好的響應時間。容器是敏捷軟件開發(fā)和交付的促成因素,并節(jié)省帶寬以幫助降低傳輸成本。

EGX 從 NGC 運行 AI 容器,這是一個為 AI 和數(shù)據(jù)分析軟件優(yōu)化的集線器。 NGC 旨在簡化和加速端到端工作流。 NGC 擁有 150 多個企業(yè)級容器, 100 多個模型,以及行業(yè)特定的 sdk 和 Helm 圖表,可以部署在本地、云中或邊緣。您可以按原樣使用軟件或“優(yōu)化和定制”,使部署功能強大的軟件或構(gòu)建定制的解決方案變得容易,并收集見解以實現(xiàn)業(yè)務價值。

EGX 還包括對 NGC 私人注冊 的訪問,在這里您可以安全地存儲您獨特的 IP 和定制的解決方案,以最大的安全性在邊緣、本地或云上共享和部署。

庫伯涅茨

Kubernetes 是一個容器編排系統(tǒng),是當今云計算和企業(yè)中最活躍的開源項目之一。它已經(jīng)成為阿德事實標準和邊緣計算的重要基礎,具有自動容器部署和自我修復的特性。

EGX 云本地軟件策略的一個核心組件是使 GPUs 具有 Kubernetes 的彈性。 EGX 包括一個 GPU 操作符,它自動安裝和配置 Kubernetes 集群中使用 GPUs 所需的所有組件。

這大大簡化了第 0 天的 IT 操作,并完全自動化了第 1 天的操作… n 操作。所有必需的組件,如 NVIDIA 驅(qū)動程序、 NVIDIA 容器運行時、 Kubernetes 設備插件和監(jiān)控都是容器化的,并作為服務在 Kubernetes 上運行,這導致 IT 部門只需為 CPU 和 GPU 節(jié)點管理一個映像。

舵面圖

Helm 圖表是 Kubernetes 推薦的包格式,因為它允許您通過單擊按鈕和幾個 CLI 命令在 Kubernetes 集群上輕松地配置、部署和更新應用程序。

NGC 托管這些庫伯內(nèi)特斯準備好的頭盔圖表來部署強大的第三方軟件。 DevOps 還可以在 NGC 上推送和共享他們的舵圖,這樣團隊就可以利用一致、安全和可靠的環(huán)境來加快開發(fā)到生產(chǎn)周期。

安裝 EGX 2.0 堆棧

NVIDIA Jetson Xavier NX 開發(fā)工具包 將超級計算機的性能提升到了極致,在 15W 的功率和較小的外形尺寸下,提供了 21 個頂級的 AI 計算。 Jetson Xavier NX 非常適合高性能人工智能系統(tǒng),如商業(yè)機器人、醫(yī)療器械、智能相機、高分辨率傳感器、自動光學檢測、智能工廠和其他物聯(lián)網(wǎng)嵌入式系統(tǒng)

對 Jetson Xavier NX 的云本地支持現(xiàn)在也可以通過 EGX 軟件棧的最新更新實現(xiàn)。 Jetson Xavier NX 開發(fā)工具包上的這個堆棧是 NVIDIA 功能和性能驗證的參考設計,可以在嵌入式設備上實現(xiàn)快速的云本地部署。

下面是在 Jetson Xavier NX 開發(fā)工具包上安裝 egx2.0 堆棧的步驟。成功安裝后, EGX 2.0 平臺 – 就緒 Jetson Xavier NX 開發(fā)工具包包括以下內(nèi)容:

NVIDIA Jetpack SDK 4.4

管理版本 1.17.5

舵手/舵柄 3.1.0

NVIDIA 容器運行時 1.0.1-dev

在本文中,我們使用了一個帶有 Jetson Xavier NX 開發(fā)工具包的 32gb microSD 卡。

設置開發(fā)工具包并安裝 JetPack 4.4

JetPack 包含在 Jetson 平臺上構(gòu)建 AI 應用程序的庫、工具和核心操作系統(tǒng)。有關設置 Jetson Xavier NX 開發(fā)人員工具包和安裝 Jetpack4.4 的詳細信息,請參閱 Jetson Xavier NX 開發(fā)工具包入門 。

更新 Docker 配置

編輯 Docker 守護程序配置,添加以下行并保存文件:

"default-runtime" : "nvidia"

下面是一個配置塊示例:

$ sudo nano /etc/docker/daemon.json { "runtimes": { "nvidia": { "path": "nvidia-container-runtime", "runtimeArgs": [] } }, "default-runtime" : "nvidia"
}

重新啟動 Docker 守護程序:

sudo systemctl daemon-reload && sudo systemctl restart docker

正在驗證 Docker 默認運行時

驗證 Docker 默認運行時為 NVIDIA :

$ sudo docker info | grep -i runtime

以下是示例輸出:

Runtimes: nvidia runc
Default Runtime: nvidia

安裝 Kubernetes 1 .17. 5 版

在開始安裝之前,請確保 Docker 已啟動并已啟用:

$ sudo systemctl start docker && sudo systemctl enable docker

安裝立方體、 kubeadm 和 kubectl :

$ sudo apt-get update && sudo apt-get install -y apt-transport-https curl
$ curl -s https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo apt-key add -
$ sudo mkdir -p /etc/apt/sources.list.d/

創(chuàng)建庫伯內(nèi)特斯列表文件:

$ sudo nano /etc/apt/sources.list.d/kubernetes.list

在庫伯內(nèi)特斯列表歸檔并保存:

deb https://apt.kubernetes.io/ kubernetes-xenial main

安裝立方體、 kubectl 和 kubeadm :

$ sudo apt-get update
$ sudo apt-get install -y -q kubelet=1.17.5-00 kubectl=1.17.5-00 kubeadm=1.17.5-00
$ sudo apt-mark hold kubelet kubeadm kubectl

初始化 Kubernetes 集群以作為主服務器運行

禁用交換:

$ sudo swapoff -a

初始化群集:

$ sudo kubeadm init --pod-network-cidr=10.244.0.0/16

輸出顯示了將 pod 網(wǎng)絡部署到集群所需執(zhí)行的命令,以及加入集群的命令。

使用輸出指令,運行以下命令:

$ mkdir -p $HOME/.kube
$ sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
$ sudo chown $(id -u):$(id -g) $HOME/.kube/config

將 pod 網(wǎng)絡附加組件安裝到控制平面節(jié)點。使用 calico 作為 pod 網(wǎng)絡附加組件:

$ kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

確保所有吊艙都已啟動并運行:

$ kubectl get pods --all-namespaces

以下是示例輸出:

NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system kube-flannel-ds-arm64-gz28t 1/1 Running 0 2m8s
kube-system coredns-5c98db65d4-d4kgh 1/1 Running 0 9m8s
kube-system coredns-5c98db65d4-h6x8m 1/1 Running 0 9m8s
kube-system etcd-#yourhost 1/1 Running 0 8m25s
kube-system kube-apiserver-#yourhost 1/1 Running 0 8m7s
kube-system kube-controller-manager-#yourhost 1/1 Running 0 8m3s
kube-system kube-proxy-6sh42 1/1 Running 0 9m7s
kube-system kube-scheduler-#yourhost 1/1 Running 0 8m26s

get nodes命令顯示主節(jié)點已啟動并準備就緒:

$ kubectl get nodes

以下是示例輸出:

NAME STATUS ROLES AGE VERSION
#yournodes Ready master 10m v1.17.5

因為您使用的是單節(jié)點 Kubernetes 集群,所以默認情況下,集群無法在控制平面節(jié)點上調(diào)度 pod 。在控制平面節(jié)點上調(diào)度 pods 。必須使用以下命令刪除污點:

$ kubectl taint nodes --all node-role.kubernetes.io/master-

安裝舵柄/舵柄 3 .1 . 0

下載 Helm 3 .1.0 :

$ sudo wget https://get.helm.sh/helm-v3.1.0-linux-arm64.tar.gz
$ sudo tar -zxvf helm-v3.1.0-linux-arm64.tar.gz
$ sudo mv linux-arm64/helm /usr/local/bin/helm
驗證成功的 EGX 2.0 安裝

要驗證 EGX 堆棧是否按預期工作,請按照以下步驟創(chuàng)建 pod yaml 文件。如果 getpods 命令顯示 pod 狀態(tài)為 completed ,則說明安裝成功。您還可以驗證 CUDA 是否成功運行 – 樣品。 yaml 驗證輸出是否顯示 Result = PASS 。

創(chuàng)建一個 pod yaml 文件,添加以下內(nèi)容,并將其另存為樣品。 yaml :

$ sudo nano cuda-samples.yaml

添加以下內(nèi)容并將其另存為 CUDA – 樣品. yaml :

apiVersion: v1
kind: Pod
metadata: name: nvidia-l4t-base
spec: restartPolicy: OnFailure containers: - name: nvidia-l4t-base image: "nvcr.io/nvidia/l4t-base:r32.4.2" args: - /usr/local/cuda/samples/1_Utilities/deviceQuery/deviceQuery

編譯 CUDA 示例以從 pod 驗證:

$ cd /usr/local/cuda/samples/1_Utilities/deviceQuery
$ sudo make
$ cd ~

創(chuàng)建示例 GPU pod :

$ sudo kubectl apply -f cuda-samples.yaml

檢查樣本盒是否已創(chuàng)建:

$ kubectl get pods

以下是示例輸出:

nvidia-l4t-base 0/1 Completed 2m

驗證示例 pod 日志以支持 CUDA 庫:

kubectl logs nvidia-l4t-base

以下是示例輸出:

/usr/local/cuda/samples/1_Utilities/deviceQuery/deviceQuery Starting...
CUDA Device Query (Runtime API) version (CUDART static linking)
Detected 1 CUDA Capable device(s)

Device 0: "Xavier"
 CUDA Driver Version / Runtime Version 10.2 / 10.2
 CUDA Capability Major/Minor version number: 7.2
 Total amount of global memory: 7764 MBytes (8140709888 bytes)
 ( 6) Multiprocessors, ( 64) CUDA Cores/MP: 384 CUDA Cores
 GPU Max Clock rate: 1109 MHz (1.11 GHz)
 Memory Clock rate: 1109 Mhz
 Memory Bus Width: 256-bit
 L2 Cache Size: 524288 bytes
 Maximum Texture Dimension Size (x,y,z) 1D=(131072), 2D=(131072, 65536), 3D=(16384, 16384, 16384)
 Maximum Layered 1D Texture Size, (num) layers 1D=(32768), 2048 layers
 Maximum Layered 2D Texture Size, (num) layers 2D=(32768, 32768), 2048 layers
 Total amount of constant memory: 65536 bytes
 Total amount of shared memory per block: 49152 bytes
 Total number of registers available per block: 65536
 Warp size: 32
 Maximum number of threads per multiprocessor: 2048
 Maximum number of threads per block: 1024
 Max dimension size of a thread block (x,y,z): (1024, 1024, 64)
 Max dimension size of a grid size (x,y,z): (2147483647, 65535, 65535)
 Maximum memory pitch: 2147483647 bytes
 Texture alignment: 512 bytes
 Concurrent copy and kernel execution: Yes with 1 copy engine(s)
 Run time limit on kernels: No
 Integrated GPU sharing Host Memory: Yes
 Support host page-locked memory mapping: Yes
 Alignment requirement for Surfaces: Yes
 Device has ECC support: Disabled
 Device supports Unified Addressing (UVA): Yes
 Device supports Compute Preemption: Yes
 Supports Cooperative Kernel Launch: Yes
 Supports MultiDevice Co-op Kernel Launch: Yes
 Device PCI Domain ID / Bus ID / location ID: 0 / 0 / 0
 Compute Mode:
 < Default (multiple host threads can use ::cudaSetDevice() with device simultaneously) >

deviceQuery, CUDA Driver = CUDART, CUDA Driver Version = 10.2, CUDA Runtime Version = 10.2, NumDevs = 1
Result = PASS

有關 EGX 軟件版本和安裝指南的更多信息,請參閱Jetson Xavier NX DevKit 的 EGX Stack – v2 . 0 安裝指南。

用例:簡化 IVA 應用程序的部署

在基于 EGX 的 Jetson Xavier NX 上使用NVIDIA 深溪構(gòu)建和部署 AI 驅(qū)動的 IVA 應用程序和服務。 deepstreamsdk 提供了一個具有 TLS 安全性的可擴展加速框架,可以部署在邊緣并連接到任何云。

在您的 EGX Jetson 設備上創(chuàng)建一個 DeepStream Helm 圖表目錄。

$ mkdir deepstream-helmchart

在/ deepstream helmchart 中創(chuàng)建一個模板目錄來存儲 Kubernetes 清單:

$ mkdir -p deepstream-helmchart/templates

創(chuàng)建圖表. yaml 文件,添加以下內(nèi)容,并將其保存到/ deepstream helmchart 目錄中:

$ nano chart.yaml apiVersion: v1
name: deepstream-helmchart
version: 1.0.0
appVersion: 0.1

將新文件創(chuàng)建為配置映射. yaml 在/ deepstream helmchart / templates 中添加以下內(nèi)容:

$ nano configmap.yaml

apiVersion: v1
kind: ConfigMap
metadata:
 name: deepstream-configmap
data:
 source4_1080p_dec_infer-resnet_tracker_sgie_tiled_display_int8.txt: |-
 # Copyright (c) 2018 NVIDIA Corporation. All rights reserved.
 #
 # NVIDIA Corporation and its licensors retain all intellectual property
 # and proprietary rights in and to this software, related documentation
 # and any modifications thereto. Any use, reproduction, disclosure or
 # distribution of this software and related documentation without an express
 # license agreement from NVIDIA Corporation is strictly prohibited.

 [application]
 enable-perf-measurement=1
 perf-measurement-interval-sec=5
 #gie-kitti-output-dir=streamscl

 [tiled-display]
 enable=1
 rows=2
 columns=2
 width=1280
 height=720
 gpu-id=0
 #(0): nvbuf-mem-default - Default memory allocated, specific to a platform
 #(1): nvbuf-mem-cuda-pinned - Allocate Pinned/Host cuda memory, applicable for Tesla
 #(2): nvbuf-mem-cuda-device - Allocate Device cuda memory, applicable for Tesla
 #(3): nvbuf-mem-cuda-unified - Allocate Unified cuda memory, applicable for Tesla
 #(4): nvbuf-mem-surface-array - Allocate Surface Array memory, applicable for Jetson
 nvbuf-memory-type=0

 [source0]
 enable=1
 #Type - 1=CameraV4L2 2=URI 3=MultiURI 4=RTSP
 type=3
 uri=file://../../streams/sample_1080p_h264.mp4
 num-sources=4
 #drop-frame-interval =2
 gpu-id=0
 # (0): memtype_device - Memory type Device
 # (1): memtype_pinned - Memory type Host Pinned
 # (2): memtype_unified - Memory type Unified
 cudadec-memtype=0

 [sink0]
 enable=1
 type=1
 sync=0
 codec=1
 bitrate=4000000
 rtsp-port=8554
 udp-port=5400
 gpu-id=0
 nvbuf-memory-type=0

 [sink1]
 enable=0
 type=3
 #1=mp4 2=mkv
 container=1
 #1=h264 2=h265
 codec=3
 sync=0
 bitrate=2000000
 output-file=out.mp4
 source-id=0
 gpu-id=0

 [sink2]
 enable=0
 #Type - 1=FakeSink 2=EglSink 3=File 4=RTSPStreaming
 type=4
 #1=h264 2=h265
 codec=1
 sync=1
 bitrate=1000000
 cuda-memory-type=1
 # set below properties in case of RTSPStreaming
 rtsp-port=8554
 udp-port=5400
 gpu-id=0

 [osd]
 enable=1
 gpu-id=0
 border-width=1
 text-size=15
 text-color=1;1;1;1;
 text-bg-color=0.3;0.3;0.3;1
 font=Serif
 show-clock=0
 clock-x-offset=800
 clock-y-offset=820
 clock-text-size=12
 clock-color=1;0;0;0
 nvbuf-memory-type=0

 [streammux]
 gpu-id=0
 ##Boolean property to inform muxer that sources are live
 live-source=0
 batch-size=4
 ##time out in usec, to wait after the first buffer is available
 ##to push the batch even if the complete batch is not formed
 batched-push-timeout=40000
 ## Set muxer output width and height
 width=1920
 height=1080
 ##Enable to maintain aspect ratio wrt source, and allow black borders, works
 ##along with width, height properties
 enable-padding=0
 nvbuf-memory-type=0

 # config-file property is mandatory for any gie section.
 # Other properties are optional and if set will override the properties set in
 # the infer config file.
 [primary-gie]
 enable=1
 gpu-id=0
 model-engine-file=../../models/Primary_Detector/resnet10.caffemodel_b4_int8.engine
 batch-size=4
 bbox-border-color0=1;0;0;1
 bbox-border-color1=0;1;1;1
 bbox-border-color2=0;0;1;1
 bbox-border-color3=0;1;0;1
 interval=0
 gie-unique-id=1
 nvbuf-memory-type=0
 config-file=config_infer_primary.txt

 [tracker]
 enable=1
 tracker-width=640
 tracker-height=384
 ll-lib-file=/opt/nvidia/deepstream/deepstream-5.0/lib/libnvds_mot_iou.so
 #ll-lib-file=/opt/nvidia/deepstream/deepstream-4.0/lib/libnvds_nvdcf.so
 ll-lib-file=/opt/nvidia/deepstream/deepstream-5.0/lib/libnvds_mot_klt.so
 #ll-config-file required for DCF/IOU only
 #ll-config-file=tracker_config.yml
 #ll-config-file=iou_config.txt
 gpu-id=0
 #enable-batch-process applicable to DCF only
 enable-batch-process=1

 [secondary-gie0]
 enable=1
 model-engine-file=../../models/Secondary_VehicleTypes/resnet18.caffemodel_b16_int8.engine
 gpu-id=0
 batch-size=16
 gie-unique-id=4
 operate-on-gie-id=1
 operate-on-class-ids=0;
 config-file=config_infer_secondary_vehicletypes.txt

 [secondary-gie1]
 enable=1
 model-engine-file=../../models/Secondary_CarColor/resnet18.caffemodel_b16_int8.engine
 batch-size=16
 gpu-id=0
 gie-unique-id=5
 operate-on-gie-id=1
 operate-on-class-ids=0;
 config-file=config_infer_secondary_carcolor.txt

 [secondary-gie2]
 enable=1
 model-engine-file=../../models/Secondary_CarMake/resnet18.caffemodel_b16_int8.engine
 batch-size=16
 gpu-id=0
 gie-unique-id=6
 operate-on-gie-id=1
 operate-on-class-ids=0;
 config-file=config_infer_secondary_carmake.txt

 [tests]
 file-loop=1

設置電源模式并固定 Jetson 設備上的時鐘

$ sudo nvpmodel -m 2
$ sudo jetson_clocks

在 Jetson 設備上安裝 DeepStream 頭盔圖表:

$ helm install --name-template deepstream deepstream-helmchart/

驗證 DeepStream 吊艙是否啟動并運行:

$ kubectl get pods
NAME READY STATUS RESTARTS AGE
deepstream-76787ffbf7-mfwk7 1/1 Running 0 1m

查看 DeepStream 吊艙日志并查看性能:

$ kubectl logs 

以下是示例輸出:

$ kubectl logs deepstream-9f8b6b68d-rc5lq
**PERF: 101.42 (100.29) 101.42 (100.29) 101.42 (100.29) 101.42 (100.29)

清理 Jetson 設備上的 DeepStream 頭盔圖表:

$ helm del deepstream

結(jié)論

在本文中,您了解了云原生軟件棧的關鍵組件。我們還向您展示了如何在 Jetson Xavier NX 開發(fā)工具包上安裝 EGX DIY 堆棧。使用它可以輕松地在邊緣部署 IVA 應用程序。

要了解其他 Jetson Xavier NX 支持的集裝箱化、預先訓練的 AI 模型的更多信息,請參見 NGC 。這些模型可以作為您的人工智能應用程序開發(fā)的構(gòu)建塊,并幫助您在今天的邊緣計算中實現(xiàn)下一個飛躍!

關于作者

Ankita Sharma 是 NVIDIA 的產(chǎn)品營銷經(jīng)理,幫助客戶構(gòu)建基于 EGX 的高性能企業(yè)和邊緣推理解決方案。她在 GTM 執(zhí)行云、網(wǎng)絡和人工智能解決方案方面擁有多年的經(jīng)驗。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關注

    關注

    210

    文章

    28109

    瀏覽量

    205863
  • NVIDIA
    +關注

    關注

    14

    文章

    4856

    瀏覽量

    102714
  • AI
    AI
    +關注

    關注

    87

    文章

    29824

    瀏覽量

    268118
收藏 人收藏

    評論

    相關推薦

    Arm推出GitHub平臺AI工具,簡化開發(fā)者AI應用開發(fā)部署流程

    軟件提供了無縫的開發(fā)體驗。 GitHub Actions、原生 GitHub 運行器和基于 Arm 平臺的 AI 框架相結(jié)合,幫助全球 2,000 萬開發(fā)者簡化 AI 應用
    的頭像 發(fā)表于 10-31 18:51 ?794次閱讀

    涂鴉引領云開發(fā)AI浪潮,實用給力的三大開發(fā)者工具全新發(fā)布!

    ,更以開放的平臺架構(gòu)與高效的開發(fā)工具,為開發(fā)者們開辟了一條便捷設備開發(fā)的高速通道。接下來,就帶大家一起了解下涂鴉云開發(fā)者平臺,都推出了哪些好用的AI
    的頭像 發(fā)表于 08-30 12:27 ?187次閱讀
    涂鴉引領云<b class='flag-5'>開發(fā)</b><b class='flag-5'>AI</b>浪潮,實用給力的三大<b class='flag-5'>開發(fā)者</b><b class='flag-5'>工具</b>全新發(fā)布!

    NVIDIA將全球數(shù)百萬開發(fā)者轉(zhuǎn)變?yōu)樯墒?AI 開發(fā)者

    來自 AI 生態(tài)系統(tǒng)各個領域的 150 余家合作伙伴嵌入了 NIM 推理微服務,將企業(yè)級 AI 應用的部署時間從數(shù)周縮短至幾分鐘 NVIDIA 開發(fā)者計劃會員可免費使用 NIM 來進行
    的頭像 發(fā)表于 06-03 18:21 ?967次閱讀

    NVIDIA NIM 革命性地改變模型部署,將全球數(shù)百萬開發(fā)者轉(zhuǎn)變?yōu)樯墒?AI 開發(fā)者

    來自 AI 生態(tài)系統(tǒng)各個領域的 150 余家合作伙伴嵌入了 NIM 推理微服務,將企業(yè)級 AI 應用的部署時間從數(shù)周縮短至幾分鐘 NVIDIA 開發(fā)者計劃會員可免費使用 NIM 來進行
    發(fā)表于 06-03 09:12 ?207次閱讀
    NVIDIA NIM 革命性地改變模型<b class='flag-5'>部署</b>,將全球數(shù)百萬<b class='flag-5'>開發(fā)者</b>轉(zhuǎn)變?yōu)樯墒?<b class='flag-5'>AI</b> <b class='flag-5'>開發(fā)者</b>

    2024 TUYA全球開發(fā)者大會盛大啟幕,Cube AI大模型重磅首發(fā)!

    2024TUYA全球開發(fā)者大會上,重磅推出AI大模型、AI開發(fā)工具、AI程序
    的頭像 發(fā)表于 05-31 08:15 ?309次閱讀
    2024 TUYA全球<b class='flag-5'>開發(fā)者</b>大會盛大啟幕,Cube <b class='flag-5'>AI</b>大模型重磅首發(fā)!

    NVIDIA與微軟擴展合作,幫助開發(fā)者更快構(gòu)建和部署AI應用

    NVIDIA 在 Microsoft Build 開發(fā)者大會上展示了與 Microsoft Azure 和 Windows PC 的集成解決方案,簡化了 AI 模型部署并優(yōu)化了路徑規(guī)劃和應用性能。
    的頭像 發(fā)表于 05-23 10:14 ?363次閱讀

    使用Redis和Spring?Ai構(gòu)建rag應用程序

    隨著AI技術(shù)的不斷進步,開發(fā)者面臨著如何有效利用現(xiàn)有工具和技術(shù)來加速開發(fā)過程的挑戰(zhàn)。Redis與SpringAI的結(jié)合為Java開發(fā)者提供了
    的頭像 發(fā)表于 04-29 08:04 ?957次閱讀
    使用Redis和Spring?<b class='flag-5'>Ai</b>構(gòu)建rag<b class='flag-5'>應用程序</b>

    開發(fā)者手機 AI - 目標識別 demo

    功能簡介 該應用是在Openharmony 4.0系統(tǒng)上開發(fā)的一個目標識別的AI應用,旨在從上到下打通Openharmony AI子系統(tǒng),展示Openharmony系統(tǒng)的AI能力,并為
    發(fā)表于 04-11 16:14

    NVIDIA數(shù)字人技術(shù)加速部署生成式AI驅(qū)動的游戲角色

    NVIDIA 在 GDC 2024 大會上宣布,Inworld AI 等領先的 AI 應用程序開發(fā)者,正在使用 NVIDIA 數(shù)字人技術(shù)加速部署
    的頭像 發(fā)表于 04-09 10:08 ?609次閱讀
    NVIDIA數(shù)字人技術(shù)加速<b class='flag-5'>部署</b>生成式<b class='flag-5'>AI</b>驅(qū)動的游戲角色

    【轉(zhuǎn)載】英特爾開發(fā)套件“哪吒”快速部署YoloV8 on Java | 開發(fā)者實戰(zhàn)

    部署到生產(chǎn)系統(tǒng)中。通過簡化的開發(fā)工作流程,OpenVINO可賦能開發(fā)者在現(xiàn)實世界中部署高性能應用程序和算法。 今天我們將基于哪吒
    的頭像 發(fā)表于 03-23 08:05 ?446次閱讀
    【轉(zhuǎn)載】英特爾<b class='flag-5'>開發(fā)</b>套件“哪吒”快速<b class='flag-5'>部署</b>YoloV8 on Java | <b class='flag-5'>開發(fā)者</b>實戰(zhàn)

    QE for Motor V1.3.0:汽車開發(fā)輔助工具解決方案工具包

    電子發(fā)燒友網(wǎng)站提供《QE for Motor V1.3.0:汽車開發(fā)輔助工具解決方案工具包.pdf》資料免費下載
    發(fā)表于 02-19 10:44 ?0次下載
    QE for Motor V1.3.0:汽車<b class='flag-5'>開發(fā)</b>輔助<b class='flag-5'>工具</b>解決方案<b class='flag-5'>工具包</b>

    解決方案工具包QE顯示[RX,RA]V3.2.0:用于顯示應用程序開發(fā)輔助工具

    電子發(fā)燒友網(wǎng)站提供《解決方案工具包QE顯示[RX,RA]V3.2.0:用于顯示應用程序開發(fā)輔助工具.pdf》資料免費下載
    發(fā)表于 01-03 09:59 ?0次下載
    解決方案<b class='flag-5'>工具包</b>QE顯示[RX,RA]V3.2.0:用于顯示<b class='flag-5'>應用程序</b>的<b class='flag-5'>開發(fā)</b>輔助<b class='flag-5'>工具</b>

    誠邀報名 | GPT驅(qū)動的新程序員時代,開發(fā)者如何編程?

    模式,開發(fā)者們迎來了編程范式的全新變革。傳統(tǒng)的編程不再局限于編寫線性代碼和優(yōu)化邏輯,自然語言取而代之,成為了編程的新工具,這大大降低了開發(fā)的門檻。 如今,以ChatGPT、Copilot等為代表的
    的頭像 發(fā)表于 12-11 22:20 ?501次閱讀

    AMD 宣布 Pervasive AI 開發(fā)者挑戰(zhàn)賽

    AI 開發(fā)者挑戰(zhàn)賽 。 利用 AMD 廣泛的 AI 就緒技術(shù),開發(fā)者將直面挑戰(zhàn),為數(shù)據(jù)中心、工作站、筆記本電腦、游戲、機器人以及其它更多領域的應用實例創(chuàng)造創(chuàng)新的、令人激動的
    的頭像 發(fā)表于 12-05 09:05 ?436次閱讀

    為IoT和IIoT應用選擇微控制器開發(fā)工具包的介紹性指南

    為IoT和IIoT應用選擇微控制器開發(fā)工具包的介紹性指南
    的頭像 發(fā)表于 11-30 15:51 ?508次閱讀
    為IoT和IIoT應用選擇微控制器<b class='flag-5'>開發(fā)工具包</b>的介紹性指南