0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA Merlin 助力陌陌推薦業(yè)務實現(xiàn)高性能訓練優(yōu)化

NVIDIA英偉達 ? 來源:未知 ? 2023-11-09 10:45 ? 次閱讀

通過 Merlin 大幅提升大規(guī)模深度多目標精排模型訓練性能

本案例中,NVIDIA 團隊與陌陌推薦系統(tǒng)團隊深度合作,共同使用 NVIDIA GPU Merlin 軟件解決方案替代其原有解決方案。

通過使用 Merlin TensorFlow Plugin (即 Sparse Operation Kit,SOK) 和 HierarchicalKV(HKV),相較于原方案在相同規(guī)模模型和 GPU 下,顯著提高了陌陌大規(guī)模深度多目標精排模型的訓練性能。在不影響模型效果的前提下,模型整體吞吐提升了 5 倍以上,再結合通信和 IO 等進一步優(yōu)化后,極限情況下可以提升 12 倍吞吐。

客戶簡介

摯文集團于 2011 年成立,2014 年 12 月 11 日在美國納斯達克交易所掛牌上市(NASDAQ: MOMO),擁有陌陌、探探等多款手機應用,以及電影制作發(fā)行、節(jié)目制作等多元業(yè)務。陌陌是摯文集團于 2011 年 8 月推出的一款基于地理位置的移動視頻社交應用,是中國領先的開放式社交平臺之一。

訓練速度面臨挑戰(zhàn),

需有效提升算法迭代

陌陌的原始解決方案本質是基于 PS-Worker 的 CPU + GPU 混合訓練方案,可支持大規(guī)模稀疏參數的訓練。然而,隨著用戶規(guī)模的增加和業(yè)務的發(fā)展,對于推薦算法的準確度也有了更高的要求。這導致模型的復雜性和訓練樣本量顯著增加,對單次模型訓練速度和新模型算法探索效率都有更大的挑戰(zhàn)。盡管原方案在功能上支持了大規(guī)模稀疏參數的訓練,但在性能上難以滿足業(yè)務日益增長的需求。因此,陌陌亟需對訓練速度進行優(yōu)化,加快算法迭代,以提高業(yè)務效果。

SOK 和 HKV

為推薦系統(tǒng)提升性能與靈活性

NVIDIA Merlin HugeCTR 是 NVIDIA 推出的可以高效利用 GPU 來進行推薦系統(tǒng)訓練的解決方案,為了使它能直接被其他 DL 用戶,比如 TensorFlow 所直接使用,NVIDIA 開發(fā)了 Merlin TensorFlow Plugin (以下簡稱 SOK),將 HugeCTR 中的高級特性封裝為 TensorFlow 可直接調用的形式,從而幫助用戶在 TensorFlow 中直接使用 HugeCTR 中的高級特性來加速他們的推薦系統(tǒng)。

wKgZomVMSOCAaFAxAAB8kg4r-to254.jpg

圖 1. Merlin TensorFlow Plugin(SOK)模型并行示意圖

Merlin TensorFlow Plugin 以數據并行的方式接收輸入數據,將稀疏參數以模型并行的方式分布在多個 GPU 上,將稠密參數以數據并行的方式分布在多個 GPU 上,內部實現(xiàn)“數據并行-模型并行-數據并行”的轉換流程。整個使用方式上盡可能的與原有 TensorFlow 算子對齊,減少對用戶已有的代碼的修改,以更方便、快捷地在多個 GPU 上進行擴展。此外,SOK 針對 embedding vector 的拷貝和 combiner 進行了高度優(yōu)化和內核融合,使整個 lookup 的前后向過程擁有更好的性能。

Merlin HierarchicalKV (以下簡稱HKV)是 Merlin 下的針對于推薦系統(tǒng)訓練設計的 KV 加速庫。為兼容大模型訓練支持了層次化動態(tài) Embedding 存儲(CPU+GPU),靈活的 eviction(淘汰) 機制和豐富的 API。目前已經集成入 SOK, 協(xié)同加速推薦系統(tǒng) Embedding 的相關計算。

在應用了 SOK 和 HKV 后,相同規(guī)模模型和 GPU 下,陌陌精排模型的訓練性能相比于原方案,整體吞吐提升了 5 倍以上。除此之外,陌陌推薦團隊在當前 SOK + HKV 的架構基礎上,基于業(yè)務場景特點,進一步優(yōu)化整體性能,包括梯度合并,減少梯度計算的通信開銷;并行特征數據讀取與轉換,以及特征數據預取到 GPU 等操作提速特征 IO;使用 XLA 進行編譯優(yōu)化,融合 kernel 以減少 kernel launch 時間;設置 GPU 親和等操作,使得整體性能提升達到 12 倍。

wKgZomVMSOCASRl0AABRC-I4vSg388.jpg

圖 2. 性能加速效果

在陌陌的實際應用中,動態(tài) Embedding 的特性大大簡化了推薦系統(tǒng)中連續(xù)訓練需人工控制顯存中 embedding tab 大小的問題。而 SOK 與 HKV 為陌陌提供了完整的功能和性能支持。

除此之外,我們跟陌陌的合作過程中,也結合產品部署中的需求進一步對產品進行了性能優(yōu)化和功能迭代,比如:

SOK 針對 embedding vector 的拷貝和 combiner 進行了高度優(yōu)化和 kernel 融合,使整個 lookup 的前后向過程擁有更好的性能。

在陌陌 GPU 高水位線的實際業(yè)務中,基于陌陌的測試和反饋,SOK 通過優(yōu)化了性能和功能的平衡點,使得其在保證性能的基礎上,穩(wěn)定性也大大提升。

另外,在陌陌的實際應用中,面臨著模型實時訓練的挑戰(zhàn),即需要減少對計算資源的占用,因此我們引入了 HKV,它支持了層次化動態(tài)嵌入存儲(包括 CPU 和 GPU),并提供了靈活的 eviction 機制以及豐富的 API。這種引入在降低資源占用的同時,也提高了系統(tǒng)的靈活性。

陌陌的實際業(yè)務場景和 GPU 使用方式對于 SOK 的開發(fā)和迭代提供了非常寶貴的經驗,同時陌陌的大量測試反饋也幫助 SOK 提升了應對復雜場景的能力,使得 SOK 的 feature 更加穩(wěn)定和貼近客戶。

持續(xù)合作:

優(yōu)化推薦模型性能,降低訓練成本

雙方團隊通過 SOK 和 HKV 對原方案進行深度優(yōu)化后,成功幫助陌陌提升了 12 倍的訓練效率,極大的降低了模型訓練的成本和新模型算法嘗試的成本。目前,整體方案已上線,全面支持陌陌推薦系統(tǒng)模型訓練。

近期,NVIDIA 團隊還與陌陌進行了基于 Transformer 的推薦模型性能優(yōu)化。NVIDIA JOC 團隊和 Merlin 團隊基于客戶的模型做了一系列性能分析,將 XLA+AMP+半精度 allreduce 應用到該模型上后,端到端性能實現(xiàn)了 50% 的加速。在此基礎上,團隊們進一步對性能熱點 multi-head-attention 部分進行優(yōu)化,正在將 Flash-Attention 以 tf-plugin 形式進行集成,預計此項優(yōu)化集成后,整體加速比可達到 3 倍,同時整體的優(yōu)化方案使得顯存使用量下降約 70%,可以顯著地緩解顯存緊張的問題。

未來,陌陌與 NVIDIA 將繼續(xù)在推薦系統(tǒng)訓練和推理等方面持續(xù)合作,持續(xù)推進 GPU 和 AI 軟件加速計算在陌陌的全面落地,期待能夠為陌陌的業(yè)務及場景應用帶來更大的價值。

了解更多本案例中相關的 NVIDIA 產品信息,敬請查閱:

  • NVIDIA Merlin:

    https://developer.nvidia.cn/merlin

  • Merlin TensorFlow Plugin (SOK) :

    https://github.com/NVIDIA-Merlin/HugeCTR/tree/main/sparse_operation_kit

  • Merlin HierarchicalKV (HKV):

    https://github.com/NVIDIA-Merlin/HierarchicalKV

GTC 2024 將于 2024 年 3 月 18 至 21 日在美國加州圣何塞會議中心舉行,線上大會也將同期開放。點擊“閱讀原文”掃描下方海報二維碼,立即注冊 GTC 大會。


原文標題:NVIDIA Merlin 助力陌陌推薦業(yè)務實現(xiàn)高性能訓練優(yōu)化

文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    22

    文章

    3637

    瀏覽量

    89827

原文標題:NVIDIA Merlin 助力陌陌推薦業(yè)務實現(xiàn)高性能訓練優(yōu)化

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    NVIDIA Nemotron-4 340B模型幫助開發(fā)者生成合成訓練數據

    Nemotron-4 340B 是針對 NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優(yōu)化的模型系列,該系列包含最先進的指導和獎勵模型,以及一個用于生成式 AI 訓練
    的頭像 發(fā)表于 09-06 14:59 ?135次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron-4 340B模型幫助開發(fā)者生成合成<b class='flag-5'>訓練</b>數據

    FP8模型訓練中Debug優(yōu)化思路

    目前,市場上許多公司都積極開展基于 FP8 的大模型訓練,以提高計算效率和性能。在此,我們整理并總結了客戶及 NVIDIA 技術團隊在 FP8 模型訓練過程中的 debug 思路和方法
    的頭像 發(fā)表于 09-06 14:36 ?123次閱讀
    FP8模型<b class='flag-5'>訓練</b>中Debug<b class='flag-5'>優(yōu)化</b>思路

    克服設計難題-實現(xiàn)高性能接口

    電子發(fā)燒友網站提供《克服設計難題-實現(xiàn)高性能接口.pdf》資料免費下載
    發(fā)表于 08-28 09:41 ?0次下載
    克服設計難題-<b class='flag-5'>實現(xiàn)</b><b class='flag-5'>高性能</b>接口

    SOK在手機行業(yè)的應用案例

    通過封裝 NVIDIA Merlin HugeCTR,Sparse Operation Kit(以下簡稱 SOK)使得 TensorFlow 用戶可以借助 HugeCTR 的一些相關特性和優(yōu)化加速 GPU 上的分布式 Embed
    的頭像 發(fā)表于 07-25 10:01 ?203次閱讀
    SOK在手機行業(yè)的應用案例

    如何訓練優(yōu)化神經網絡

    神經網絡是人工智能領域的重要分支,廣泛應用于圖像識別、自然語言處理、語音識別等多個領域。然而,要使神經網絡在實際應用中取得良好效果,必須進行有效的訓練優(yōu)化。本文將從神經網絡的訓練過程、常用優(yōu)
    的頭像 發(fā)表于 07-01 14:14 ?266次閱讀

    高性能計算集群的能耗優(yōu)化

    高性能計算(HighPerformanceComputing,HPC)是指利用大規(guī)模并行計算機集群來解決復雜的科學和工程問題的技術。高性能計算集群的應用領域非常廣泛,包括天氣預報、生物信息學
    的頭像 發(fā)表于 05-25 08:27 ?231次閱讀
    <b class='flag-5'>高性能</b>計算集群的能耗<b class='flag-5'>優(yōu)化</b>

    進一步解讀英偉達 Blackwell 架構、NVlink及GB200 超級芯片

    芯片標志著 NVIDIA高性能計算、優(yōu)化連接性和可擴展性領域的重大進展。 7. 網絡技術 GB200 集成了 NVIDIA 的最新網絡技術,提出了連接性和帶寬方面的進步。 **8.
    發(fā)表于 05-13 17:16

    降本增效:NVIDIA路徑優(yōu)化引擎創(chuàng)下多項世界紀錄!

    NVIDIA cuOpt 路徑優(yōu)化引擎助力川崎重工實現(xiàn)鐵路安全,支持 SyncTwin 實現(xiàn)制造優(yōu)化
    的頭像 發(fā)表于 04-03 11:17 ?331次閱讀

    基于NVIDIA Megatron Core的MOE LLM實現(xiàn)訓練優(yōu)化

    本文將分享阿里云人工智能平臺 PAI 團隊與 NVIDIA Megatron-Core 團隊在 MoE (Mixture of Experts) 大語言模型(LLM)實現(xiàn)訓練優(yōu)化上的
    的頭像 發(fā)表于 03-22 09:50 ?571次閱讀
    基于<b class='flag-5'>NVIDIA</b> Megatron Core的MOE LLM<b class='flag-5'>實現(xiàn)</b>和<b class='flag-5'>訓練</b><b class='flag-5'>優(yōu)化</b>

    NVIDIA 發(fā)布全新交換機,全面優(yōu)化萬億參數級 GPU 計算和 AI 基礎設施

    NVIDIA 軟件實現(xiàn)了跨 ?Blackwell GPU、新交換機和 BlueField-3 SuperNIC 的分布式計算,大幅提升了 AI、數據處理、高性能計算和云工作負載的性能
    發(fā)表于 03-19 10:05 ?261次閱讀
    <b class='flag-5'>NVIDIA</b> 發(fā)布全新交換機,全面<b class='flag-5'>優(yōu)化</b>萬億參數級 GPU 計算和 AI 基礎設施

    基于NVIDIA DOCA 2.6實現(xiàn)高性能和安全的AI云設計

    網絡平臺上快速創(chuàng)建應用程序和服務,并啟用 NVIDIA BlueField DPU 和 NVIDIA BlueField SuperNIC 的強大功能,提供突破性的網絡、安全和存儲性能。
    的頭像 發(fā)表于 02-23 10:02 ?365次閱讀

    實現(xiàn)可靠高性能數字電源

    電子發(fā)燒友網站提供《實現(xiàn)可靠高性能數字電源.pdf》資料免費下載
    發(fā)表于 11-16 15:02 ?0次下載
    <b class='flag-5'>實現(xiàn)</b>可靠<b class='flag-5'>高性能</b>數字電源

    創(chuàng)新企業(yè)云福利:騰訊云 × NVIDIA 初創(chuàng)加速計劃

    助力生成式 AI、大模型訓練與推理、自動駕駛、圖像處理等場景初創(chuàng)企業(yè)加速成長,最高獲贈 10 萬元扶持基金、NVIDIA 深度學習培訓中心(DLI)優(yōu)惠課程,以及免費的 GPU 技術支持。 騰訊云
    的頭像 發(fā)表于 11-13 20:40 ?487次閱讀
    創(chuàng)新企業(yè)云福利:騰訊云 × <b class='flag-5'>NVIDIA</b> 初創(chuàng)加速計劃

    SAP半導體及光伏行業(yè)最佳業(yè)務實

    電子發(fā)燒友網站提供《SAP半導體及光伏行業(yè)最佳業(yè)務實踐.ppt》資料免費下載
    發(fā)表于 11-02 14:32 ?0次下載
    SAP半導體及光伏行業(yè)最佳<b class='flag-5'>業(yè)務實</b>踐

    如何搭建高效推薦系統(tǒng)?用Milvus和NVIDIA Merlin搭建高效推薦系統(tǒng)

    之后,推薦系統(tǒng)能夠給出高度個性化的推薦結果,從而提升產品的用戶體驗。 為了方便大家對此進行深入了解,我們邀請到 NVIDIA Merlin? 團隊 ,他們將詳細介紹推薦系統(tǒng)的上述多個階段的工作流程,以及推薦系統(tǒng)在電商、流媒體、社交媒體等多個行業(yè)
    的頭像 發(fā)表于 11-01 09:30 ?853次閱讀
    如何搭建高效推薦系統(tǒng)?用Milvus和<b class='flag-5'>NVIDIA</b> <b class='flag-5'>Merlin</b>搭建高效推薦系統(tǒng)