0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

TensorRT中的自定義層滿足模型的特定需求

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:Ken He ? 2022-05-13 16:50 ? 次閱讀

NVIDIA TensorRT 支持多種類型的層,其功能不斷擴展;但是,在某些情況下,支持的層不能滿足模型的特定需求。

您可以通過實現(xiàn)自定義層(通常稱為插件)來擴展 TensorRT。

9.1. Adding Custom Layers Using The C++ API

您可以通過從 TensorRT 的插件基類之一派生來實現(xiàn)自定義層。Table 3. Base classes, ordered from least expressive to most expressive

為了在網(wǎng)絡(luò)中使用插件,您必須首先將其注冊到 TensorRT 的PluginRegistry ( C++ 、 Python )。不是直接注冊插件,而是為插件注冊一個工廠類的實例,派生自PluginCreator ( C++ , Python )。插件創(chuàng)建者類還提供有關(guān)插件的其他信息:它的名稱、版本和插件字段參數(shù)。

您必須從插件的基類之一派生插件類。在支持具有不同類型/格式的輸入/輸出或具有動態(tài)形狀的網(wǎng)絡(luò)方面,它們具有不同的表達能力。下表總結(jié)了基類,按從最不具表現(xiàn)力到最具表現(xiàn)力的順序排列。

注意:如果插件用于一般用途,請?zhí)峁?FP32 實現(xiàn),以使其能夠在任何網(wǎng)絡(luò)上正常運行。

TensorRT 提供了一個宏REGISTER_TENSORRT_PLUGIN ,它將插件創(chuàng)建者靜態(tài)注冊到注冊表中。

TensorRT 庫包含可以加載到您的應(yīng)用程序中的插件。有關(guān)開源插件的列表,請參閱GitHub:TensorRT 插件。

注意:

要在應(yīng)用程序中使用 TensorRT 插件,必須加載libnvinfer_plugin.so庫,并且必須通過在應(yīng)用程序代碼中調(diào)用initLibNvInferPlugins來注冊所有插件。

如果您有自己的插件庫,則可以包含一個類似的入口點,以便在唯一命名空間下的注冊表中注冊所有插件。這確保了在構(gòu)建期間跨不同插件庫的插件名稱沒有沖突。

有關(guān)這些插件的更多信息,請參閱NvInferPlugin.h文件以供參考。

調(diào)用IPluginCreator::createPlugin()返回IPluginV2類型的插件對象。您可以使用addPluginV2()將插件添加到 TensorRT 網(wǎng)絡(luò),該插件使用給定插件創(chuàng)建網(wǎng)絡(luò)層。

例如,您可以將插件層添加到您的網(wǎng)絡(luò),如下所示:

// Look up the plugin in the registry

auto creator = getPluginRegistry()-》getPluginCreator(pluginName, pluginVersion);

const PluginFieldCollection* pluginFC = creator-》getFieldNames();

// Populate the fields parameters for the plugin layer

PluginFieldCollection *pluginData = parseAndFillFields(pluginFC, layerFields);

// Create the plugin object using the layerName and the plugin meta data

IPluginV2 *pluginObj = creator-》createPlugin(layerName, pluginData);

// Add the plugin to the TensorRT network

auto layer = network.addPluginV2(&inputs[0], int(inputs.size()), pluginObj);

… (build rest of the network and serialize engine)

// Destroy the plugin object

pluginObj-》destroy()

… (destroy network, engine, builder)

… (free allocated pluginData)

注意:

pluginData必須在傳遞給createPlugin之前在堆上分配PluginField條目。

前面描述的 createPlugin 方法在堆上創(chuàng)建一個新的插件對象并返回一個指向它的指針。如前所示,確保銷毀 pluginObj 以避免內(nèi)存泄漏。

IPluginV2類型插件的插件類型、插件版本和命名空間(如果存在) 。在反序列化期間,TensorRT 從插件注冊表中查找插件創(chuàng)建者并調(diào)用IPluginCreator::deserializePlugin() 。在反序列化過程中創(chuàng)建的插件對象由 TensorRT 引擎通過調(diào)用IPluginV2::destroy()方法在內(nèi)部銷毀。

IPluginV2類型插件的插件類型、插件版本和命名空間(如果存在), 在反序列化期間,TensorRT 從插件注冊表中查找插件創(chuàng)建者并調(diào)用IPluginCreator::deserializePlugin() 。在反序列化期間創(chuàng)建的插件對象由 TensorRT 引擎通過調(diào)用IPluginV2::destroy()方法在內(nèi)部銷毀。

9.1.1. Example: Adding A Custom Layer With Dynamic Shape Support Using C++

要支持動態(tài)形狀,您的插件必須從IPluginV2DynamicExt派生。

關(guān)于這個任務(wù)

BarPlugin是一個有兩個輸入和兩個輸出的插件,其中: ? 第一個輸出是第二個輸入的拷貝 ? 第二個輸出是兩個輸入的串聯(lián),沿著第一個維度,所有類型/格式必須相同并且是線性格式

BarPlugin需要按如下方式派生:

class BarPlugin : public IPluginV2DynamicExt

{

。..override virtual methods inherited from IPluginV2DynamicExt.

};

繼承的方法都是純虛方法,所以如果你忘記了,編譯器會提醒你。

受動態(tài)形狀影響的四種方法是:

獲取輸出維度

支持格式組合

配置插件

隊列

getOutputDimensions的覆蓋根據(jù)輸入維度返回輸出維度的符號表達式。您可以使用傳遞給getOutputDimensions的IExprBuilder從輸入的表達式構(gòu)建表達式。在示例中,不必為案例 1 構(gòu)建新表達式,因為第二個輸出的維度與第一個輸入的維度相同。

DimsExprs BarPlugin::getOutputDimensions(int outputIndex,

const DimsExprs* inputs, int nbInputs,

IExprBuilder& exprBuilder)

{

switch (outputIndex)

{

case 0:

{

// First dimension of output is sum of input

// first dimensions.

DimsExprs output(inputs[0]);

output.d[0] =

exprBuilder.operation(DimensionOperation::kSUM,

inputs[0].d[0], inputs[1].d[0]);

return output;

}

case 1:

return inputs[0];

default:

throw std::invalid_argument(“invalid output”);

}

supportsFormatCombination的覆蓋必須指示是否允許格式組合。接口將輸入/輸出統(tǒng)一索引為“connections”,從第一個輸入的 0 開始,然后依次為其余輸入,然后為輸出編號。在示例中,輸入是connections 0 和 1,輸出是connections 2 和 3。

TensorRT 使用supportsFormatCombination來詢問給定的格式/類型組合是否適用于連接,給定的格式/類型用于索引較少的連接。因此,覆蓋可以假設(shè)較少索引的連接已經(jīng)過審查,并專注于與索引pos的連接。

bool BarPlugin::supportsFormatCombination(int pos, const PluginTensorDesc* inOut, int nbInputs, int nbOutputs) override

{

assert(0 《= pos && pos 《 4);

const auto* in = inOut;

const auto* out = inOut + nbInputs;

switch (pos)

{

case 0: return in[0].format == TensorFormat::kLINEAR;

case 1: return in[1].type == in[0].type &&

in[0].format == TensorFormat::kLINEAR;

case 2: return out[0].type == in[0].type &&

out[0].format == TensorFormat::kLINEAR;

case 3: return out[1].type == in[0].type &&

out[1].format == TensorFormat::kLINEAR;

}

throw std::invalid_argument(“invalid connection number”);

}

這里的局部變量in和out允許通過輸入或輸出編號而不是連接編號檢查inOut 。

重要提示:覆蓋檢查索引小于pos的連接的格式/類型,但絕不能檢查索引大于pos的連接的格式/類型。該示例使用case 3來檢查連接 3 和連接 0,而不是使用case 0來檢查連接 0 和連接 3。

TensorRT 使用configurePlugin在運行時設(shè)置插件。這個插件不需要configurePlugin來做任何事情,所以它是一個空操作:

void BarPlugin::configurePlugin(

const DynamicPluginTensorDesc* in, int nbInputs,

const DynamicPluginTensorDesc* out, int nbOutputs) override

{

}

如果插件需要知道它可能遇到的最小或最大尺寸,它可以檢查字段DynamicPluginTensorDesc::min或DynamicPluginTensorDesc::max的任何輸入或輸出。格式和構(gòu)建時維度信息可以在DynamicPluginTensorDesc::desc中找到。任何運行時維度都顯示為 -1。實際維度提供給BarPlugin::enqueue 。

最后,重寫B(tài)arPlugin::enqueue必須完成這項工作。由于形狀是動態(tài)的,因此 enqueue 會收到一個PluginTensorDesc ,它描述了每個輸入和輸出的實際尺寸、類型和格式。

9.1.2. Example: Adding A Custom Layer With INT8 I/O Support Using C++

PoolPlugin是一個插件,用于演示如何為自定義池層擴展 INT8 I/O。推導(dǎo)如下:

class PoolPlugin : public IPluginV2IOExt

{

。..override virtual methods inherited from IPluginV2IOExt.

};

大多數(shù)純虛方法對插件來說都是通用的。影響INT8 I/O的主要方法有:

支持格式組合

配置插件

enqueue

supportsFormatCombination的覆蓋必須指示允許哪個 INT8 I/O 組合。此接口的用法類似于示例:使用 C++ 添加具有動態(tài)形狀支持的自定義層。在本例中,支持的 I/O 張量格式為線性 CHW,數(shù)據(jù)類型為 FP32、FP16 或 INT8,但 I/O 張量必須具有相同的數(shù)據(jù)類型。

bool PoolPlugin::supportsFormatCombination(int pos, const PluginTensorDesc* inOut, int nbInputs, int nbOutputs) const override

{

assert(nbInputs == 1 && nbOutputs == 1 && pos 《 nbInputs + nbOutputs);

bool condition = inOut[pos].format == TensorFormat::kLINEAR;

condition &= ((inOut[pos].type == DataType::kFLOAT) ||

(inOut[pos].type == DataType::kHALF) ||

(inOut[pos].type == DataType::kINT8));

condition &= inOut[pos].type == inOut[0].type;

return condition;

}

重要的:

如果 INT8 校準必須與具有 INT8 I/O 插件的網(wǎng)絡(luò)一起使用,則該插件必須支持 FP32 I/O,因為它被 FP32 校準圖使用。

如果不支持 FP32 I/O 變體或未使用 INT8 校準,則必須明確設(shè)置所有必需的 INT8 I/O 張量尺度。

校準無法確定插件內(nèi)部張量的動態(tài)范圍。對量化數(shù)據(jù)進行操作的插件必須為內(nèi)部張量計算自己的動態(tài)范圍。

TensorRT 調(diào)用configurePlugin方法通過PluginTensorDesc將信息傳遞給插件,這些信息存儲為成員變量,序列化和反序列化。

void PoolPlugin::configurePlugin(const PluginTensorDesc* in, int nbInput, const PluginTensorDesc* out, int nbOutput)

{

。..

mPoolingParams.mC = mInputDims.d[0];

mPoolingParams.mH = mInputDims.d[1];

mPoolingParams.mW = mInputDims.d[2];

mPoolingParams.mP = mOutputDims.d[1];

mPoolingParams.mQ = mOutputDims.d[2];

mInHostScale = in[0].scale 》= 0.0f ? in[0].scale : -1.0f;

mOutHostScale = out[0].scale 》= 0.0f ? out[0].scale : -1.0f;

}

每個張量的 INT8 I/O 比例可以從PluginTensorDesc::scale獲得。 最后,重寫UffPoolPluginV2::enqueue必須完成這項工作。它包括一組核心算法,可在運行時通過使用實際批量大小、輸入、輸出、cuDNN 流和配置的信息來執(zhí)行自定義層。

int PoolPlugin::enqueue(int batchSize, const void* const* inputs, void** outputs, void* workspace, cudaStream_t stream)

{

。..

CHECK(cudnnPoolingForward(mCudnn, mPoolingDesc, &kONE, mSrcDescriptor, input, &kZERO, mDstDescriptor, output));

。..

return 0;

}

9.2. Adding Custom Layers Using The Python API

盡管 C++ API 是實現(xiàn)自定義層的首選語言,但由于可以訪問 CUDA 和 cuDNN 等庫,您還可以在 Python 應(yīng)用程序中使用自定義層。

您可以使用 C++ API 創(chuàng)建自定義層,在 Python 中使用pybind11打包層,然后將插件加載到 Python 應(yīng)用程序中。有關(guān)更多信息,請參閱在 Python 中創(chuàng)建網(wǎng)絡(luò)定義。

相同的自定義層實現(xiàn)可用于 C++ 和 Python。

9.2.1. Example: Adding A Custom Layer To A TensorRT Network Using Python

可以使用插件節(jié)點將自定義層添加到 Python 中的任何 TensorRT 網(wǎng)絡(luò)。

Python API 有一個名為add_plugin_v2的函數(shù),可讓您將插件節(jié)點添加到網(wǎng)絡(luò)。以下示例說明了這一點。它創(chuàng)建了一個簡單的TensorRT網(wǎng)絡(luò),并通過查找TensorRT插件注冊表來添加一個 Leaky ReLU 插件節(jié)點。

import tensorrt as trt

import numpy as np

TRT_LOGGER = trt.Logger()

trt.init_libnvinfer_plugins(TRT_LOGGER, ‘’)

PLUGIN_CREATORS = trt.get_plugin_registry().plugin_creator_list

def get_trt_plugin(plugin_name):

plugin = None

for plugin_creator in PLUGIN_CREATORS:

if plugin_creator.name == plugin_name:

lrelu_slope_field = trt.PluginField(“neg_slope”, np.array([0.1], dtype=np.float32), trt.PluginFieldType.FLOAT32)

field_collection = trt.PluginFieldCollection([lrelu_slope_field])

plugin = plugin_creator.create_plugin(name=plugin_name, field_collection=field_collection)

return plugin

def main():

builder = trt.Builder(TRT_LOGGER)

network = builder.create_network()

config = builder.create_builder_config()

config.max_workspace_size = 2**20

input_layer = network.add_input(name=“input_layer”, dtype=trt.float32, shape=(1, 1))

lrelu = network.add_plugin_v2(inputs=[input_layer], plugin=get_trt_plugin(“LReLU_TRT”))

lrelu.get_output(0).name = “outputs”

network.mark_output(lrelu.get_output(0))

9.3. Using Custom Layers When Importing A Model With A Parser

ONNX 解析器會自動嘗試將無法識別的節(jié)點作為插件導(dǎo)入。如果在插件注冊表中找到與節(jié)點具有相同op_type的插件,則解析器將節(jié)點的屬性作為插件字段參數(shù)轉(zhuǎn)發(fā)給插件創(chuàng)建者,以創(chuàng)建插件。默認情況下,解析器使用“1”作為插件版本, “”作為插件命名空間。可以通過在相應(yīng)的 ONNX 節(jié)點中設(shè)置plugin_version或plugin_namespace字符串屬性來覆蓋此行為。

在某些情況下,您可能希望在將 ONNX 圖導(dǎo)入 TensorRT 之前對其進行修改。例如,用插件節(jié)點替換一組操作。為此,您可以使用ONNX GraphSurgeon 實用程序。有關(guān)如何使用 ONNX-GraphSurgeon 替換子圖的詳細信息,請參閱此示例。

有關(guān)更多示例,請參閱onnx_packnet示例。

9.4. Plugin API Description

所有新插件都應(yīng)從IPluginCreator和使用 C++ API 添加自定義層中描述的插件基類之一派生類。此外,新插件還應(yīng)調(diào)用REGISTER_TENSORRT_PLUGIN(。..)宏以將插件注冊到 TensorRT 插件注冊表或創(chuàng)建等效于initLibNvInferPlugins()的init函數(shù)。

9.4.1. Migrating Plugins From TensorRT 6.x Or 7.x To TensorRT 8.x.x

IPluginV2和IPluginV2Ext以分別向后兼容 TensorRT 5.1 和 6.0.x。但是,新插件應(yīng)針對IPluginV2DynamicExt或IPluginV2IOExt接口,而舊插件應(yīng)重構(gòu)以使用這些接口。

IPluginV2DynamicExt中的新特性如下:

virtual DimsExprs getOutputDimensions(int outputIndex, const DimsExprs* inputs, int nbInputs, IExprBuilder& exprBuilder) = 0;

virtual bool supportsFormatCombination(int pos, const PluginTensorDesc* inOut, int nbInputs, int nbOutputs) = 0;

virtual void configurePlugin(const DynamicPluginTensorDesc* in, int nbInputs, const DynamicPluginTensorDesc* out, int nbOutputs) = 0;

virtual size_t getWorkspaceSize(const PluginTensorDesc* inputs, int nbInputs, const PluginTensorDesc* outputs, int nbOutputs) const = 0;

virtual int enqueue(const PluginTensorDesc* inputDesc, const PluginTensorDesc* outputDesc, const void* const* inputs, void* const* outputs, void* workspace, cudaStream_t stream) = 0;

IPluginV2IOExt中的新特性如下:

virtual void configurePlugin(const PluginTensorDesc* in, int nbInput, const PluginTensorDesc* out, int nbOutput) = 0;

virtual bool supportsFormatCombination(int pos, const PluginTensorDesc* inOut, int nbInputs, int nbOutputs) const = 0;

遷移到IPluginV2DynamicExt或IPluginV2IOExt的指南:

getOutputDimensions實現(xiàn)給定輸入的輸出張量維度的表達式。

supportsFormatCombination檢查插件是否支持指定輸入/輸出的格式和數(shù)據(jù)類型。

configurePlugin模仿IPluginV2Ext中等效的configurePlugin的行為,但接受張量描述符。

getWorkspaceSize和enqueue模仿IPluginV2Ext中等效 API 的行為,但接受張量描述符。

更多詳細信息,請參閱IPluginV2 API 說明中的 API 說明。

9.4.2. IPluginV2 API Description

以下部分介紹IPluginV2類的功能。要將插件層連接到相鄰層并設(shè)置輸入和輸出數(shù)據(jù)結(jié)構(gòu),構(gòu)建器通過調(diào)用以下插件方法檢查輸出的數(shù)量及其維度。

getNbOutputs

用于指定輸出張量的數(shù)量。

getOutputDimensions

用于將輸出的維度指定為輸入維度的函數(shù)。

supportsFormat

用于檢查插件是否支持給定的數(shù)據(jù)格式。

getOutputDataType

用于獲取給定索引處輸出的數(shù)據(jù)類型。返回的數(shù)據(jù)類型必須具有插件支持的格式。

插件層可以支持四種數(shù)據(jù)格式,例如:

NCHW單精度 (FP32)、半精度 (FP16) 和整型 (INT32) 張量

NC / 2HW2和NHWC8半精度 (FP16) 張量

格式由PluginFormatType枚舉。

除了輸入和輸出張量之外,不計算所有數(shù)據(jù)并且需要內(nèi)存空間的插件可以使用getWorkspaceSize方法指定額外的內(nèi)存需求,該方法由構(gòu)建器調(diào)用以確定和預(yù)分配暫存空間。

在構(gòu)建和推理期間,可能會多次配置和執(zhí)行插件層。在構(gòu)建時,為了發(fā)現(xiàn)最佳配置,層被配置、初始化、執(zhí)行和終止。為插件選擇最佳格式后,再次配置插件,然后在推理應(yīng)用程序的生命周期內(nèi)初始化一次并執(zhí)行多次,最后在引擎銷毀時終止。這些步驟由構(gòu)建器和引擎使用以下插件方法控制:

configurePlugin(配置插件)

傳達輸入和輸出的數(shù)量、所有輸入和輸出的維度和數(shù)據(jù)類型、所有輸入和輸出的廣播信息、選擇的插件格式和最大批量大小。此時,插件設(shè)置其內(nèi)部狀態(tài)并為給定配置選擇最合適的算法和數(shù)據(jù)結(jié)構(gòu)。

initialize(初始化)

此時配置是已知的,并且正在創(chuàng)建推理引擎,因此插件可以設(shè)置其內(nèi)部數(shù)據(jù)結(jié)構(gòu)并準備執(zhí)行。

enqueue(排隊)

封裝插件的實際算法和內(nèi)核調(diào)用,并提供運行時批處理大小、指向輸入、輸出和暫存空間的指針,以及用于內(nèi)核執(zhí)行的CUDA流。

terminate(終止)

引擎上下文被銷毀,插件持有的所有資源必須被釋放。

clone(克?。?/p>

每次創(chuàng)建包含此插件層的新構(gòu)建器、網(wǎng)絡(luò)或引擎時都會調(diào)用它。它必須返回一個帶有正確參數(shù)的新插件對象。

destroy(銷毀)

用于銷毀插件對象和/或每次創(chuàng)建新插件對象時分配的其他內(nèi)存。每當構(gòu)建器或網(wǎng)絡(luò)或引擎被破壞時都會調(diào)用它。

“`set/getPluginNamespace`(設(shè)置/獲取插件命名空間)“

該方法用于設(shè)置該插件對象所屬的庫命名空間(默認可以是“”)。來自同一個插件庫的所有插件對象都應(yīng)該具有相同的命名空間。

IPluginV2Ext支持可以處理廣播輸入和輸出的插件。此功能需要實現(xiàn)以下方法:

canBroadcastInputAcrossBatch

對每個輸入調(diào)用此方法,其張量在批次中進行語義廣播。如果canBroadcastInputAcrossBatch返回true (意味著插件可以支持廣播),則 TensorRT 不會復(fù)制輸入張量。插件應(yīng)該在批處理中共享一個副本。如果它返回false ,則 TensorRT 會復(fù)制輸入張量,使其看起來像一個非廣播張量。

isOutputBroadcastAcrossBatch

這為每個輸出索引調(diào)用。該插件應(yīng)在給定索引處返回 true 輸出,并在整個批次中廣播。

IPluginV2IOExt 這由構(gòu)建器在initialize()之前調(diào)用。它為層提供了基于 I/O PluginTensorDesc和最大批量大小進行算法選擇的機會。

注意:基于IPluginV2的插件在引擎級別共享,而不是在執(zhí)行上下文級別共享,因此這些可能被多個線程同時使用的插件需要以線程安全的方式管理它們的資源。創(chuàng)建ExecutionContext時會克隆基于IPluginV2Ext和派生接口的插件,因此這不是必需的。

9.4.3. IPluginCreator API Description

IPluginCreator類中的以下方法用于從插件注冊表中查找和創(chuàng)建適當?shù)牟寮?/p>

getPluginName

IPluginExt::getPluginType的返回值。

getPluginVersion 返回插件版本。對于所有內(nèi)部 TensorRT 插件,默認為1 。

getFieldNames 要成功創(chuàng)建插件,需要了解插件的所有字段參數(shù)。此方法返回PluginFieldCollection結(jié)構(gòu),其中填充了PluginField條目以反映字段名稱和PluginFieldType (數(shù)據(jù)應(yīng)指向nullptr )。

createPlugin

此方法用于使用PluginFieldCollection參數(shù)創(chuàng)建插件。應(yīng)填充PluginField條目的數(shù)據(jù)字段以指向每個插件字段條目的實際數(shù)據(jù)。

注意:傳遞給createPlugin函數(shù)的數(shù)據(jù)應(yīng)該由調(diào)用者分配,并在程序被銷毀時最終由調(diào)用者釋放。 createPlugin函數(shù)返回的插件對象的所有權(quán)被傳遞給調(diào)用者,并且也必須被銷毀。

deserializePlugin

此方法由 TensorRT 引擎根據(jù)插件名稱和版本在內(nèi)部調(diào)用。它應(yīng)該返回要用于推理的插件對象。在該函數(shù)中創(chuàng)建的插件對象在引擎被銷毀時被 TensorRT 引擎銷毀。

set/getPluginNamespace 該方法用于設(shè)置此創(chuàng)建者實例所屬的命名空間(默認可以是“”)。

9.5. Best Practices For Custom Layers Plugin

調(diào)試自定義層問題

必須釋放插件中分配的內(nèi)存以確保沒有內(nèi)存泄漏。如果在initialize()函數(shù)中獲取資源,則需要在terminate()函數(shù)中釋放它們。應(yīng)該釋放所有其他內(nèi)存分配,最好在插件類析構(gòu)函數(shù)中或在destroy()方法中。使用 C++ API 添加自定義層詳細概述了這一點,并提供了一些使用插件時的最佳實踐說明。

關(guān)于作者

Ken He 是 NVIDIA 企業(yè)級開發(fā)者社區(qū)經(jīng)理 & 高級講師,擁有多年的 GPU人工智能開發(fā)經(jīng)驗。自 2017 年加入 NVIDIA 開發(fā)者社區(qū)以來,完成過上百場培訓(xùn),幫助上萬個開發(fā)者了解人工智能和 GPU 編程開發(fā)。在計算機視覺,高性能計算領(lǐng)域完成過多個獨立項目。并且,在機器人無人機領(lǐng)域,有過豐富的研發(fā)經(jīng)驗。對于圖像識別,目標的檢測與跟蹤完成過多種解決方案。曾經(jīng)參與 GPU 版氣象模式GRAPES,是其主要研發(fā)者。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4862

    瀏覽量

    102722
  • API
    API
    +關(guān)注

    關(guān)注

    2

    文章

    1475

    瀏覽量

    61760
  • C++
    C++
    +關(guān)注

    關(guān)注

    21

    文章

    2102

    瀏覽量

    73457
收藏 人收藏

    評論

    相關(guān)推薦

    創(chuàng)建自定義的基于閃存的引導(dǎo)加載程序(BSL)

    電子發(fā)燒友網(wǎng)站提供《創(chuàng)建自定義的基于閃存的引導(dǎo)加載程序(BSL).pdf》資料免費下載
    發(fā)表于 09-19 10:50 ?0次下載
    創(chuàng)建<b class='flag-5'>自定義</b>的基于閃存的引導(dǎo)加載程序(BSL)

    如何創(chuàng)建TestStand自定義步驟

    在之前的課程簡單地介紹過TestStand自帶的一些步驟類型,如測試、消息彈窗、賦值、標簽等等,這些簡單的步驟從TestStand的插入選版中就可以添加到序列。那么在使用如果碰到需要實現(xiàn)更加靈活、復(fù)雜的功能,使用自帶的一些
    的頭像 發(fā)表于 09-11 14:46 ?840次閱讀
    如何創(chuàng)建TestStand<b class='flag-5'>自定義</b>步驟

    請問multisim怎么自定義元器件?

    為什么我在multisim自定義元器件始終出不了想要的波形效果呢?同一個pspice模型我同學(xué)之前都定義正確了,現(xiàn)在我想再來試一下結(jié)果一直失敗
    發(fā)表于 09-10 06:16

    NVIDIA NeMo加速并簡化自定義模型開發(fā)

    如果企業(yè)希望充分發(fā)揮出 AI 的力量,就需要根據(jù)其行業(yè)需求量身定制的自定義模型。
    的頭像 發(fā)表于 07-26 11:17 ?663次閱讀
    NVIDIA NeMo加速并簡化<b class='flag-5'>自定義</b><b class='flag-5'>模型</b>開發(fā)

    NVIDIA AI Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 AI 模型

    Foundry 提供從數(shù)據(jù)策管、合成數(shù)據(jù)生成、微調(diào)、檢索、防護到評估的全方位生成式 AI 模型服務(wù),以便部署自定義 Llama 3.1 NVIDIA NIM 微服務(wù)和新的 NVIDIA NeMo
    發(fā)表于 07-24 09:39 ?675次閱讀
    NVIDIA AI Foundry 為全球企業(yè)打造<b class='flag-5'>自定義</b> Llama 3.1 生成式 AI <b class='flag-5'>模型</b>

    HarmonyOS開發(fā)案例:【 自定義彈窗】

    基于ArkTS的聲明式開發(fā)范式實現(xiàn)了三種不同的彈窗,第一種直接使用公共組件,后兩種使用CustomDialogController實現(xiàn)自定義彈窗
    的頭像 發(fā)表于 05-16 18:18 ?1246次閱讀
    HarmonyOS開發(fā)案例:【 <b class='flag-5'>自定義</b>彈窗】

    AWTK 開源串口屏開發(fā)(18) - 用 C 語言自定義命令

    如果AWTK-HMI內(nèi)置模型無法滿足需求,可以使用C語言來擴展默認模型。本文通過一個簡單的例子,介紹一下用C語言擴展默認模型的方法。AWTK
    的頭像 發(fā)表于 05-11 08:24 ?405次閱讀
    AWTK 開源串口屏開發(fā)(18) - 用 C 語言<b class='flag-5'>自定義</b>命令

    TSMaster 自定義 LIN 調(diào)度表編程指導(dǎo)

    LIN(LocalInterconnectNetwork)協(xié)議調(diào)度表是用于LIN總線通信中的消息調(diào)度的一種機制,我們收到越來越多來自不同用戶希望能夠通過接口實現(xiàn)自定義LIN調(diào)度表的需求。所以在
    的頭像 發(fā)表于 05-11 08:21 ?578次閱讀
    TSMaster <b class='flag-5'>自定義</b> LIN 調(diào)度表編程指導(dǎo)

    HarmonyOS開發(fā)實例:【自定義Emitter】

    使用[Emitter]實現(xiàn)事件的訂閱和發(fā)布,使用[自定義彈窗]設(shè)置廣告信息。
    的頭像 發(fā)表于 04-14 11:37 ?957次閱讀
    HarmonyOS開發(fā)實例:【<b class='flag-5'>自定義</b>Emitter】

    鴻蒙ArkUI實例:【自定義組件】

    組件是 OpenHarmony 頁面最小顯示單元,一個頁面可由多個組件組合而成,也可只由一個組件組合而成,這些組件可以是ArkUI開發(fā)框架自帶系統(tǒng)組件,比如?`Text`?、?`Button`?等,也可以是自定義組件,本節(jié)筆者簡單介紹一下自定義組件的語法規(guī)范。
    的頭像 發(fā)表于 04-08 10:17 ?583次閱讀

    基于YOLOv8實現(xiàn)自定義姿態(tài)評估模型訓(xùn)練

    Hello大家好,今天給大家分享一下如何基于YOLOv8姿態(tài)評估模型,實現(xiàn)在自定義數(shù)據(jù)集上,完成自定義姿態(tài)評估模型的訓(xùn)練與推理。
    的頭像 發(fā)表于 12-25 11:29 ?2750次閱讀
    基于YOLOv8實現(xiàn)<b class='flag-5'>自定義</b>姿態(tài)評估<b class='flag-5'>模型</b>訓(xùn)練

    博途用戶自定義庫的使用

    博途官方提供了很多庫,比如:基本函數(shù)庫、通信庫、安全庫、驅(qū)動庫等等,用戶可以使用庫的函數(shù)/函數(shù)塊來完成具體的控制任務(wù)。除了官方的庫,我們也可以創(chuàng)建自己的庫(用戶自定義庫)。比如,把項目
    的頭像 發(fā)表于 12-25 10:08 ?862次閱讀
    博途用戶<b class='flag-5'>自定義</b>庫的使用

    基于YOLOv8的自定義醫(yī)學(xué)圖像分割

    YOLOv8是一種令人驚嘆的分割模型;它易于訓(xùn)練、測試和部署。在本教程,我們將學(xué)習(xí)如何在自定義數(shù)據(jù)集上使用YOLOv8。但在此之前,我想告訴你為什么在存在其他優(yōu)秀的分割模型時應(yīng)該使用
    的頭像 發(fā)表于 12-20 10:51 ?715次閱讀
    基于YOLOv8的<b class='flag-5'>自定義</b>醫(yī)學(xué)圖像分割

    NVIDIA 加快企業(yè)自定義生成式 AI 模型開發(fā)

    的業(yè)務(wù)數(shù)據(jù)進行自定義。 如今,免費、開源的大語言模型對企業(yè)來說就像是一頓“自助餐”。但對于構(gòu)建自定義生成式 AI 應(yīng)用的開發(fā)者來說,這頓“大餐”可能會讓他們應(yīng)接不暇,因為他們需要滿足
    的頭像 發(fā)表于 11-16 21:15 ?556次閱讀
    NVIDIA 加快企業(yè)<b class='flag-5'>自定義</b>生成式 AI <b class='flag-5'>模型</b>開發(fā)

    如何在Matlab自定義Message

    自定義Message 當我們的 message 消息比較復(fù)雜時,通常要用到自定義的 message 消息,MATLAB 2020b以上的版本自帶了ROS Toolbox Interface
    的頭像 發(fā)表于 11-15 18:12 ?1201次閱讀
    如何在Matlab<b class='flag-5'>中</b><b class='flag-5'>自定義</b>Message