0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

騰訊云與NVIDIA仍持續(xù)為AI推理加速進(jìn)行合作

NVIDIA英偉達(dá) ? 來(lái)源:NVIDIA英偉達(dá) ? 作者:NVIDIA英偉達(dá) ? 2022-08-31 09:24 ? 次閱讀

騰訊云計(jì)算加速套件 TACO Kit 包含 TACO Train 和 TACO Infer 兩個(gè) AI 組件?;?GPU 異構(gòu)計(jì)算平臺(tái)針對(duì)業(yè)界 AI 訓(xùn)練和推理任務(wù)進(jìn)行了全方位的加速優(yōu)化。TACO Kit 不僅大大提升了 GPU 集群上多機(jī)多卡分布式訓(xùn)練的效率,對(duì)于 GPU 上的模型推理也通過(guò)集成 NVIDIA TensorRT 帶來(lái)了顯著加速。雙方團(tuán)隊(duì)就 GPU 推理加速這一話題將進(jìn)行持續(xù)深入的合作,推出定制化的優(yōu)化方案,為業(yè)界客戶帶來(lái)顯著的性能收益。

騰訊云計(jì)算加速套件TACO Kit(Tencent Cloud Accelerated Computing Optimization Kit)是一種異構(gòu)計(jì)算加速軟件服務(wù),具備領(lǐng)先的 GPU 共享技術(shù)和業(yè)界唯一的 GPU 在離線混部能力,搭配騰訊自研的軟硬件協(xié)同優(yōu)化組件和硬件廠商特有優(yōu)化方案,支持物理機(jī)、云服務(wù)器、容器等產(chǎn)品的計(jì)算加速、圖形渲染、視頻轉(zhuǎn)碼各個(gè)應(yīng)用場(chǎng)景,幫助用戶實(shí)現(xiàn)全方位全場(chǎng)景的降本增效。

其中,AI 加速引擎 TACO Train 和 TACO Infer 是騰訊云虛擬化團(tuán)隊(duì)依托云帆團(tuán)隊(duì),立足于騰訊內(nèi)部豐富的 AI 業(yè)務(wù)場(chǎng)景,深耕訓(xùn)練框架優(yōu)化、分布式框架優(yōu)化、網(wǎng)絡(luò)通信優(yōu)化、推理性能優(yōu)化等關(guān)鍵技術(shù),攜手打造的一整套 AI 加速方案。為了更好的服務(wù)用戶,騰訊云決定將內(nèi)部深度優(yōu)化的加速方案免費(fèi)提供給公有云用戶,助力廣大用戶提高 AI 產(chǎn)品迭代效率。

無(wú)論對(duì)于 AI 訓(xùn)練或 AI 推理,如何有效提升 AI 任務(wù)的性能,節(jié)省硬件資源成本,是業(yè)界持續(xù)追求的目標(biāo)。在訓(xùn)練方面,隨著 AI 模型規(guī)模的擴(kuò)大及訓(xùn)練數(shù)據(jù)的增多,用戶對(duì)模型的迭代效率要求也隨之增長(zhǎng),單個(gè) GPU 的算力已無(wú)法滿足大部分業(yè)務(wù)場(chǎng)景,使用單機(jī)多卡或多機(jī)多卡訓(xùn)練已成為趨勢(shì)。但用戶在部署分布式訓(xùn)練系統(tǒng)時(shí),時(shí)常面臨著難以充分利用 GPU 資源、訓(xùn)練效率低下的問(wèn)題,而分布式訓(xùn)練性能調(diào)優(yōu)卻是需要同時(shí)進(jìn)行通信優(yōu)化、計(jì)算優(yōu)化的極其復(fù)雜的問(wèn)題。

在推理方面,對(duì)多種多樣的工作負(fù)載進(jìn)行推理加速也是業(yè)界共同的需求。這需要考慮如何對(duì)不同框架訓(xùn)練的模型進(jìn)行統(tǒng)一的高效部署;如何整合各類加速軟件和技術(shù),對(duì)接不同模型和業(yè)務(wù)場(chǎng)景。

在訓(xùn)練方面,TACO Train 推出 Tencent TensorFlow(以下簡(jiǎn)稱 TTF), 針對(duì)特定業(yè)務(wù)場(chǎng)景的 XLA,Grappler 圖優(yōu)化,以及自適應(yīng)編譯框架解決冗余編譯的問(wèn)題,并對(duì) TensorFlow 1.15 添加了對(duì)CUDA 11的支持,讓用戶可以使用NVIDIA A100 Tensor Core GPU來(lái)進(jìn)行模型訓(xùn)練。另外,TACO Train 推出 LightCC 這一基于 Horovod 深度優(yōu)化的分布式訓(xùn)練框架,在保留了原生 Horovod 的易用性上,增加了性能更好的通信方式。相比 Horovod,LightCC 能夠?qū)?2D AllReduce 充分利用通信帶寬;在 GPU 上訓(xùn)練時(shí)提供高效的梯度融合方式;并使用 TOPK 壓縮通信,降低通信量,提高傳輸效率。最后,騰訊云自研了用戶態(tài)網(wǎng)絡(luò)協(xié)議棧 HARP,可以通過(guò) Plug-in 的方式集成到NVIDIA NCCL中,無(wú)需任何業(yè)務(wù)改動(dòng),加速云上分布式訓(xùn)練性能,從而解決了目前普遍使用的內(nèi)核網(wǎng)絡(luò)協(xié)議棧存在著一些必要的開銷導(dǎo)致其不能很好地利用高速網(wǎng)絡(luò)設(shè)備的問(wèn)題。

在推理方面,TACO Infer 通過(guò)跨平臺(tái)統(tǒng)一的優(yōu)化接口賦能用戶,讓渴望加速計(jì)算的用戶輕松駕馭騰訊云上豐富的異構(gòu)算力。TACO Infer 針對(duì) GPU 推理任務(wù),集成了NVIDIA TensorRT,利用其極致的模型優(yōu)化能力,使推理過(guò)程能夠達(dá)到令人滿意的性能。此外,TACO 也將自定義的高性能 kernel 實(shí)現(xiàn)與TensorRT相結(jié)合,極大地提升用戶的推理效率。

TACO Kit 針對(duì) GPU 的訓(xùn)練優(yōu)化,為諸多業(yè)務(wù)帶來(lái)了顯著的性能提升。在某電商平臺(tái)推薦業(yè)務(wù)Wide & Deep 模型訓(xùn)練任務(wù)中,TACO Train 提供的方案通過(guò)定制化高性能 GPU 算子,使延遲從 14.3ms 下降至 2.8ms;整體訓(xùn)練性能提升 43%,成本下降 11%;在另一電商推薦場(chǎng)景 MMoE 模型的訓(xùn)練任務(wù)中,TACO Train 提供的訓(xùn)練方案,在NVIDIA V100 Tensor Core GPU集群上,使計(jì)算速度性價(jià)比相比于 CPU 集群提升了 3.2 倍,收斂速度性價(jià)比相比于 CPU 集群提升了 24.3 倍。

目前,騰訊云 TACO Kit 與 NVIDIA 雙方團(tuán)隊(duì)仍持續(xù)為 AI 推理加速進(jìn)行合作。未來(lái)也將針對(duì)一些常見的業(yè)務(wù)模型,圍繞TensorRT進(jìn)行聯(lián)合優(yōu)化,將模型推理的性能推向更高的水準(zhǔn),為業(yè)界有推理加速需求的客戶提供一站式的優(yōu)化方案。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4793

    瀏覽量

    102423
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    27

    文章

    4590

    瀏覽量

    128137
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    28875

    瀏覽量

    266204
  • 騰訊云
    +關(guān)注

    關(guān)注

    0

    文章

    204

    瀏覽量

    16704

原文標(biāo)題:騰訊云與 NVIDIA 深度合作,打造計(jì)算加速套件 TACO Kit 加速 GPU AI 計(jì)算全鏈路

文章出處:【微信號(hào):NVIDIA_China,微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    英偉達(dá)推出全新NVIDIA AI Foundry服務(wù)和NVIDIA NIM推理微服務(wù)

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務(wù)和 NVIDIA NIM 推理微服務(wù),與同樣剛推出的 Llama 3.1
    的頭像 發(fā)表于 07-25 09:48 ?567次閱讀

    HPE 攜手 NVIDIA 推出 NVIDIA AI Computing by HPE,加速生成式 AI 變革

    by HPE 包含了可持續(xù)加速計(jì)算產(chǎn)品組合以及全生命周期服務(wù),將簡(jiǎn)化 AI 創(chuàng)造價(jià)值的過(guò)程,加速生成式 AI 的發(fā)展步伐。
    的頭像 發(fā)表于 06-21 14:39 ?226次閱讀

    NVIDIA推出NVIDIA AI Computing by HPE加速生成式 AI 變革

    作為極具開創(chuàng)性的一站式“交鑰匙”私有人工智能(private-cloud AI)解決方案,NVIDIA AI Computing by HPE 包含了可
    的頭像 發(fā)表于 06-20 17:36 ?596次閱讀

    英偉達(dá)推出AI模型推理服務(wù)NVIDIA NIM

    英偉達(dá)近日宣布推出一項(xiàng)革命性的AI模型推理服務(wù)——NVIDIA NIM。這項(xiàng)服務(wù)將極大地簡(jiǎn)化AI模型部署過(guò)程,全球的2800萬(wàn)英偉達(dá)開發(fā)者
    的頭像 發(fā)表于 06-04 09:15 ?537次閱讀

    英特爾助力京東用CPU加速AI推理,以大模型構(gòu)建數(shù)智化供應(yīng)鏈

    英特爾助力京東用CPU加速AI推理,以大模型構(gòu)建數(shù)智化供應(yīng)鏈
    的頭像 發(fā)表于 05-27 11:50 ?382次閱讀
    英特爾助力京東<b class='flag-5'>云</b>用CPU<b class='flag-5'>加速</b><b class='flag-5'>AI</b><b class='flag-5'>推理</b>,以大模型構(gòu)建數(shù)智化供應(yīng)鏈

    研華與英偉達(dá)深化合作, 成為NVIDIA AI Enterprise軟件全球分銷商

    )的軟件平臺(tái)。近日發(fā)布的NVIDIA AI Enterprise 5.0將為用戶提供一系列微服務(wù),其中包括NVIDIA NIM。這是一套用于對(duì)二十多種流行的AI模型
    發(fā)表于 05-07 11:21 ?188次閱讀
    研華與英偉達(dá)深化<b class='flag-5'>合作</b>, 成為<b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Enterprise軟件全球分銷商

    利用NVIDIA組件提升GPU推理的吞吐

    本實(shí)踐中,唯品會(huì) AI 平臺(tái)與 NVIDIA 團(tuán)隊(duì)合作,結(jié)合 NVIDIA TensorRT 和 NVIDIA Merlin Hierarc
    的頭像 發(fā)表于 04-20 09:39 ?503次閱讀

    NVIDIA和谷歌宣布開展一項(xiàng)新的合作,加速AI開發(fā)

    NVIDIA 和谷歌宣布開展一項(xiàng)新的合作,以幫助全球初創(chuàng)企業(yè)加速創(chuàng)建生成式 AI 應(yīng)用和服務(wù)。
    的頭像 發(fā)表于 04-11 14:03 ?388次閱讀

    SAP與NVIDIA攜手加速生成式AI在企業(yè)應(yīng)用中的普及

    SAP SE 和 NVIDIA 宣布深化合作,致力于加速企業(yè)客戶在 SAP 解決方案和應(yīng)用組合中利用數(shù)據(jù)和生成式 AI 的變革力量。
    的頭像 發(fā)表于 03-22 10:02 ?493次閱讀

    使用NVIDIA Triton推理服務(wù)器來(lái)加速AI預(yù)測(cè)

    這家計(jì)算巨頭的計(jì)算機(jī)視覺和數(shù)據(jù)科學(xué)服務(wù)使用 NVIDIA Triton 推理服務(wù)器來(lái)加速 AI 預(yù)測(cè)。
    的頭像 發(fā)表于 02-29 14:04 ?458次閱讀

    HarmonyOS:使用MindSpore Lite引擎進(jìn)行模型推理

    ); OH_AI_ContextSetThreadAffinityMode(context, 1); //設(shè)置運(yùn)行設(shè)備CPU,不使用Float16推理 OH_AI_DeviceInf
    發(fā)表于 12-14 11:41

    如何使用電壓加速進(jìn)行器件的ELF(早期失效)測(cè)試?

    如何使用電壓加速進(jìn)行器件的ELF(早期失效)測(cè)試? 電壓加速法是一種常用于測(cè)試電子器件早期失效(Early Life Failure,ELF)的方法。該方法通過(guò)增加電壓施加在器件上,模擬器件在正常
    的頭像 發(fā)表于 11-17 14:35 ?440次閱讀

    創(chuàng)新企業(yè)福利:騰訊 × NVIDIA 初創(chuàng)加速計(jì)劃

    助力生成式 AI、大模型訓(xùn)練與推理、自動(dòng)駕駛、圖像處理等場(chǎng)景初創(chuàng)企業(yè)加速成長(zhǎng),最高獲贈(zèng) 10 萬(wàn)元扶持基金、NVIDIA 深度學(xué)習(xí)培訓(xùn)中心(DLI)優(yōu)惠課程,以及免費(fèi)的 GPU 技術(shù)支
    的頭像 發(fā)表于 11-13 20:40 ?487次閱讀
    創(chuàng)新企業(yè)<b class='flag-5'>云</b>福利:<b class='flag-5'>騰訊</b><b class='flag-5'>云</b> × <b class='flag-5'>NVIDIA</b> 初創(chuàng)<b class='flag-5'>加速</b>計(jì)劃

    周四研討會(huì)預(yù)告 | 注冊(cè)報(bào)名 NVIDIA AI Inference Day - 大模型推理線上研討會(huì)

    由 CSDN 舉辦的 NVIDIA AI Inference Day - 大模型推理線上研討會(huì),將幫助您了解 NVIDIA 開源大型語(yǔ)言模型(LLM)
    的頭像 發(fā)表于 10-26 09:05 ?283次閱讀

    Oracle 基礎(chǔ)設(shè)施提供新的 NVIDIA GPU 加速計(jì)算實(shí)例

    生成式 AI 和大語(yǔ)言模型(LLM)不斷推動(dòng)突破性創(chuàng)新,訓(xùn)練和推理對(duì)算力的需求也隨之急劇上升。 這些現(xiàn)代生成式 AI 應(yīng)用需要全棧加速計(jì)算,首先要有能夠快速、準(zhǔn)確處理大量工作負(fù)載的先進(jìn)
    的頭像 發(fā)表于 09-25 20:40 ?469次閱讀
    Oracle <b class='flag-5'>云</b>基礎(chǔ)設(shè)施提供新的 <b class='flag-5'>NVIDIA</b> GPU <b class='flag-5'>加速</b>計(jì)算實(shí)例