0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA DGX SuperPOD 助力京東探索研究院 Vega-MT 模型大賽奪魁!

NVIDIA英偉達(dá) ? 來源:未知 ? 2023-01-18 00:50 ? 次閱讀

圖片來源于京東

借助 NVIDIA DGX SuperPOD,京東探索研究院訓(xùn)練了參數(shù)量近五十億的 Vega-MT 模型,在 2022 年第 17 屆國際機(jī)器翻譯大賽(WMT)上大放異彩。Vega-MT 在中文-英語(BLEU 33.5, chrF 0.611)、英文-中文(BLEU 49.7, chrF 0.446)、德語-英語(BLEU 33.7, chrF 0.585)、英語-德語(BLEU 37.8, chrF 0.643)、捷克語-英語(BLEU 54.9, chrF 0.744)、英語-捷克語(BLEU 41.4, chrF 0.651)和英語-俄羅斯語(BLEU 32.7, chrF 0.584)在七個翻譯賽道上榮獲冠軍。

作為大規(guī)模 AI 基礎(chǔ)架構(gòu),NVIDIA DGX SuperPOD 具備完整、先進(jìn)的基礎(chǔ)架構(gòu)。相較于原來的 V100 集群,DGX SuperPOD 除了在單卡算力上取得了接近兩倍的提升外,在算力擴(kuò)展性方面也呈線性增長,即擴(kuò)展性方面相較于從前也取得了兩倍的提升。在多節(jié)點(diǎn)的情況下總計獲得了約 4 倍的提升。因此,原本需要數(shù)月才能完成類似模型(相當(dāng)規(guī)模、相當(dāng)復(fù)雜度)的訓(xùn)練任務(wù)縮短到了兩周,研究人員也有了更充裕的時間針對模型優(yōu)化。

客戶簡介及應(yīng)用背景

京東作為以供應(yīng)鏈為基礎(chǔ)的技術(shù)與服務(wù)企業(yè)。京東探索研究院(JD Explore Academy)秉承“以技術(shù)為本,致力于更高效和可持續(xù)的世界”的集團(tuán)使命,是以京東集團(tuán)以各事業(yè)群與業(yè)務(wù)單元的技術(shù)發(fā)展為基礎(chǔ),集合全集團(tuán)資源和能力,成立的專注前沿科技探索的研發(fā)部門,是實(shí)現(xiàn)研究和協(xié)同創(chuàng)新的生態(tài)平臺。探索研究院深耕泛人工智能 3 大領(lǐng)域,包括“量子機(jī)器學(xué)習(xí)”、“可信人工智能”、“超級深度學(xué)習(xí)”,從基礎(chǔ)理論層面實(shí)現(xiàn)顛覆式創(chuàng)新,助力數(shù)智化產(chǎn)業(yè)發(fā)展及社會變革,以原創(chuàng)性科技賦能京東集團(tuán)零售、物流、健康、科技等全產(chǎn)業(yè)鏈場景,打造源頭性科技高地,實(shí)現(xiàn)從量變到質(zhì)變的跨越式發(fā)展,引領(lǐng)行業(yè)砥礪前行。

國際機(jī)器翻譯大賽(WMT)是全球?qū)W術(shù)界公認(rèn)的國際頂級機(jī)器翻譯比賽,由國際計算語言學(xué)協(xié)會(ACL)舉辦,是協(xié)會旗下的頂尖賽事。自 2006 年至今,WMT 的每次比賽都是全球各大高校、科技公司與學(xué)術(shù)機(jī)構(gòu)展示自身機(jī)器翻譯實(shí)力的平臺,更見證了機(jī)器翻譯技術(shù)的不斷進(jìn)步。

京東探索研究院在 WMT 大賽上這一重大成就進(jìn)一步驗證了自然語言處理大模型在理解、生成、跨語種建模上的優(yōu)越性。

客戶挑戰(zhàn)

機(jī)器翻譯面臨諸多挑戰(zhàn):常見的幾個語種使用廣泛數(shù)據(jù)資源豐富,小語種在跨境電商中非常必要但數(shù)據(jù)不充分,小數(shù)據(jù)集的訓(xùn)練面臨挑戰(zhàn);同時,挖掘語種與語種的聯(lián)系也是難點(diǎn)之一,因為語言生成的復(fù)雜性、多義性,表達(dá)的多樣性、文化背景,語種之間的差異等都是機(jī)器翻譯比賽中繞不開的難題。

從 2018 年的 GPT-1 的 1.1 億參數(shù),到現(xiàn)今大規(guī)模語言模型擁有萬億參數(shù),大模型在多種語言任務(wù)上準(zhǔn)確率的顯著提高,有助于我們構(gòu)建對自然語言有著更加豐富理解的智能系統(tǒng)。

Vega-MT 采用了諸多先進(jìn)技術(shù),包括多方向預(yù)訓(xùn)練(multidirectional pre-training)、超大模型(Extremely Large Transformer)、循環(huán)翻譯(cycle translation)和雙向自訓(xùn)練(bidirectional self-training),來充分挖掘雙語數(shù)據(jù)、單語數(shù)據(jù)的知識。此外,還使用了噪聲信道重排序和泛化性微調(diào)等策略來增強(qiáng) Vega-MT 系統(tǒng)的魯棒性和譯文的信達(dá)雅水平。

但是,在訓(xùn)練大模型時,我們依然會面臨諸多困難。在此之前對于一般任務(wù)一張 GPU 即可勝任模型的訓(xùn)練,但是在大模型場景,需要多節(jié)點(diǎn)協(xié)同才能完成最終的訓(xùn)練任務(wù),這也對現(xiàn)有的 GPU 計算集群提出了新的挑戰(zhàn)。以知名的 GPT-3 為例,它使用了 45 TB 的訓(xùn)練數(shù)據(jù),最高達(dá)到 1750 億的模型參數(shù)量;在采用混合精度時,它共占用約 2.8 TB 的顯存,需要超過 35 張 GPU 才能將模型全部放下。

因此,訓(xùn)練的挑戰(zhàn)集中在單卡算力和多卡多節(jié)點(diǎn)通信上,訓(xùn)練也會跨越多個節(jié)點(diǎn)。此時數(shù)據(jù)傳輸、任務(wù)調(diào)度、并行優(yōu)化、資源利用率等方面就顯得尤為重要。

應(yīng)用方案

在構(gòu)建 AI 基礎(chǔ)架構(gòu)時,我們會面臨來自方方面面的挑戰(zhàn),例如計算資源,網(wǎng)絡(luò),存儲,乃至最上層用來進(jìn)行任務(wù)調(diào)度的軟件等,而這些方面并非獨(dú)立,需要綜合考量。

京東探索研究院采用的 NVIDIA DGX SuperPOD 就是一套綜合完整的高性能解決方案。SuperPOD AI 集群,基于 DGX 服務(wù)器,HDR InfiniBand 200G 網(wǎng)卡以及 NVIDIA Quantum QM8790 交換機(jī),計算網(wǎng)絡(luò)和儲存網(wǎng)絡(luò)隔離,既保證了最優(yōu)的算力,又可以確保節(jié)點(diǎn)和卡之間的高效互聯(lián),最大程度提升分布式訓(xùn)練的效率。

算力層面,單節(jié)點(diǎn)算力高達(dá) 2.4 PFLOPS,采用單節(jié)點(diǎn)進(jìn)行訓(xùn)練,BERT 只需 17 分鐘即可完成訓(xùn)練,Mask R-CNN 38 分鐘,RetinaNet 也只需 83 分鐘。而針對于 Transformer XL Base,181 分鐘即可完成訓(xùn)練。同時,依托于多實(shí)例 GPU (Multi-Instance GPU, MIG) 技術(shù),可以將 GPU 分割成多個實(shí)例,每個實(shí)例都有其獨(dú)立的顯存,緩存以及流式多處理器,彼此之間故障隔離。這樣一來可以進(jìn)一步提升 GPU 的利用率,同時滿足需要不同算力的任務(wù)。

網(wǎng)絡(luò)層面,通過 Scalable Hierarchical Aggregation and Reduction Protocol (SHARP) 技術(shù),可以讓聚合計算從 CPU 遷移到交換機(jī)網(wǎng)絡(luò),消除了節(jié)點(diǎn)之間多次發(fā)送數(shù)據(jù)的需求,大幅縮減了到達(dá)聚合節(jié)點(diǎn)的網(wǎng)絡(luò)流量,從而顯著減少執(zhí)行 MPI 的時間,同時讓通信效率與節(jié)點(diǎn)數(shù)目不再直接相關(guān),進(jìn)一步保障了算力的可擴(kuò)展性。除此之外,將 CPU 從處理通信的任務(wù)中解脫出來,讓寶貴的 CPU 資源聚焦于計算上,進(jìn)一步提升了整體集群處理任務(wù)的能力。

儲存層面,在訓(xùn)練模型時,往往需要從存儲中多次讀取訓(xùn)練數(shù)據(jù),而讀取操作的耗時也會在一定程度上影響訓(xùn)練的時效。DGX SuperPOD 使用了高性能的多層級儲存架構(gòu),以平衡性能、容量和成本的需求。而借助于 GPU Direct RDMA 技術(shù),可以繞過 CPU 直接連通 GPU,儲存和網(wǎng)絡(luò)設(shè)備,從而進(jìn)行高速低時延的數(shù)據(jù)傳輸。

軟件層面,為了構(gòu)建集群以及保障集群的持久化平穩(wěn)運(yùn)行,上層的監(jiān)控調(diào)度管理軟件不可或缺。Base Command Manager 是一個集群管理系統(tǒng),它可以對集群進(jìn)行一系列的配置,管理用戶訪問,資源監(jiān)控,記錄日志,以及通過 slurm 進(jìn)行作業(yè)任務(wù)調(diào)度。同時,NGC 上涵蓋了大量 AI,HPC,數(shù)據(jù)科學(xué)相關(guān)的資源,用戶可以輕松獲取到功能強(qiáng)大的軟件,容器鏡像,以及各類預(yù)訓(xùn)練模型。

與此同時,探索研究院團(tuán)隊對集群進(jìn)行了 7x24 小時的監(jiān)控管理,確保訓(xùn)練任務(wù)長時間的平穩(wěn)運(yùn)行。監(jiān)控資源利用率,也確保了每個節(jié)點(diǎn)上的計算資源能被充分地利用了起來。在完善的調(diào)度監(jiān)控工作和 DGX SuperPOD 高可靠性的質(zhì)量保證下,所有被使用到的訓(xùn)練節(jié)點(diǎn)在模型訓(xùn)練的 20 天 (2 周 pre-training + 5天 fine-tuning) 內(nèi),沒有出現(xiàn)任何問題,訓(xùn)練最終圓滿完成。

使用效果及影響

Vega-MT 被成功應(yīng)用在了京東國慶期間對外發(fā)布的 Omni-Force AIGC 小程序中。小程序的應(yīng)用是用戶輸入文字生成對應(yīng)的圖片,在 Vega-MT 的加持下,小程序可以支持多個語種的文字輸入,譬如中文、英文、西班牙文等等。

京東探索研究院表示: “通過 NVIDIA DGX SuperPOD 的加持,京東探索研究院可以快速迭代模型,幫助高準(zhǔn)確度的模型快速落地,進(jìn)一步提升用戶體驗,降低成本,提升效果和業(yè)務(wù)收益。此次 NVIDIA DGX SuperPOD 支持我們能在 WMT 比賽中拔得頭籌,不僅提高了企業(yè)的知名度,也助力了京東成為更受用戶信賴的品牌”。

值得一提的是,除了 Vega-MT 外,NVIDIA DGX SuperPOD 也在探索研究院的其他大模型訓(xùn)練上發(fā)揮了不可或缺的作用,譬如 ViTAE,織女模型等。

點(diǎn)擊“閱讀原文”掃描下方海報二維碼,即可免費(fèi)注冊 GTC 23,切莫錯過這場 AI 和元宇宙時代的技術(shù)大會!


原文標(biāo)題:NVIDIA DGX SuperPOD 助力京東探索研究院 Vega-MT 模型大賽奪魁!

文章出處:【微信公眾號:NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3720

    瀏覽量

    90682

原文標(biāo)題:NVIDIA DGX SuperPOD 助力京東探索研究院 Vega-MT 模型大賽奪魁!

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    藍(lán)思科技將新增昆山創(chuàng)新研究院,重點(diǎn)服務(wù)蘋果

    藍(lán)思科技近日宣布,將新增一個重點(diǎn)研發(fā)機(jī)構(gòu),即藍(lán)思昆山創(chuàng)新研究院,目前正在緊鑼密鼓地建設(shè)中。該研究院的成立,標(biāo)志著藍(lán)思科技在研發(fā)領(lǐng)域的進(jìn)一步拓展和深化。
    的頭像 發(fā)表于 10-28 16:25 ?201次閱讀

    NVIDIA助力丹麥發(fā)布首臺AI超級計算機(jī)

    這臺丹麥最大的超級計算機(jī)由該國政府與丹麥 AI 創(chuàng)新中心共同建設(shè),是一臺 NVIDIA DGX SuperPOD 超級計算機(jī)。
    的頭像 發(fā)表于 10-27 09:42 ?348次閱讀

    中國電信人工智能研究院完成首個全國產(chǎn)化萬卡萬參大模型訓(xùn)練

    近日,中國電信人工智能研究院宣布了一項重大技術(shù)突破:成功完成國內(nèi)首個基于全國產(chǎn)化萬卡集群訓(xùn)練的萬億參數(shù)大模型。
    的頭像 發(fā)表于 09-30 16:41 ?1612次閱讀

    鉆井工程技術(shù)研究院選購我司導(dǎo)熱系數(shù)測試儀

    在科研的廣闊天地里,每一次技術(shù)革新都如同星辰,點(diǎn)亮了人類探索未知的征途。鉆井工程技術(shù)研究院,作為行業(yè)內(nèi)的領(lǐng)航者,始終站在科研的前沿,致力于鉆井技術(shù)的深度挖掘與創(chuàng)新。近日,鉆井工程技術(shù)研究院與上海和晟
    的頭像 發(fā)表于 09-11 11:19 ?201次閱讀
    鉆井工程技術(shù)<b class='flag-5'>研究院</b>選購我司導(dǎo)熱系數(shù)測試儀

    摩爾線程攜手智源研究院完成基于Triton的大模型算子庫適配

    近日,摩爾線程與北京智源人工智能研究院(簡稱:智源研究院)已順利完成基于Triton語言的高性能算子庫FlagGems的適配工作。得益于摩爾線程自研統(tǒng)一系統(tǒng)計算架構(gòu)MUSA,雙方在短短一周多的時間
    的頭像 發(fā)表于 08-02 11:06 ?734次閱讀

    長沙北斗研究院總部基地正式奠基

    長沙北斗研究院總部基地正式奠基 日前長沙北斗研究院總部基地正式奠基,項目由長沙北斗研究院牽頭建設(shè);項目又名“北斗足跡”。項目一期預(yù)計2025年年底前建成投用。 據(jù)悉,長沙北斗研究院總部
    的頭像 發(fā)表于 05-16 12:49 ?1138次閱讀

    航天宏圖與天儀研究院合作共同推動遙感衛(wèi)星數(shù)據(jù)應(yīng)用創(chuàng)新

    近日,航天宏圖信息技術(shù)股份有限公司(以下簡稱“航天宏圖”)與長沙天儀空間科技研究院有限公司(以下簡稱“天儀研究院”)正式簽署戰(zhàn)略合作框架協(xié)議。
    的頭像 發(fā)表于 04-23 17:11 ?492次閱讀
    航天宏圖與天儀<b class='flag-5'>研究院</b>合作共同推動遙感衛(wèi)星數(shù)據(jù)應(yīng)用創(chuàng)新

    英偉達(dá)Blackwell平臺網(wǎng)絡(luò)配置分析

    采用 DGX GB200 系統(tǒng)的 NVIDIA DGX SuperPOD 專為訓(xùn)練和推理萬億參數(shù)生成式AI 模型而構(gòu)建。
    的頭像 發(fā)表于 04-17 11:01 ?1233次閱讀

    國家高新技術(shù)研究院發(fā)布“2023小巨人企業(yè)50強(qiáng)”

    3月28日,國際高新技術(shù)研究院公布了“2023小巨人企業(yè)50強(qiáng)”名單。 包括欣旺達(dá)動力科技股份有限公司、京東方傳感技術(shù)有限公司、士蘭半導(dǎo)體制造有限公司在內(nèi)的多家明星企業(yè)成功登榜。
    的頭像 發(fā)表于 03-29 16:49 ?1346次閱讀

    NVIDIA Blackwell DGX SuperPOD助力萬億級生成式AI計算

    全新 DGX SuperPOD 采用新型高效液冷機(jī)架級擴(kuò)展架構(gòu),基于 NVIDIA DGX GB200 系統(tǒng)構(gòu)建而成,在 FP4 精度下可提供 11.5 exaflops 的 AI 超
    發(fā)表于 03-21 09:49 ?184次閱讀

    NVIDIA推出搭載GB200 Grace Blackwell超級芯片的NVIDIA DGX SuperPOD?

    NVIDIA 于太平洋時間 3 月 18 日發(fā)布新一代 AI 超級計算機(jī) —— 搭載 NVIDIA GB200 Grace Blackwell 超級芯片的 NVIDIA DGX
    的頭像 發(fā)表于 03-21 09:49 ?640次閱讀

    英偉達(dá)推出百億參數(shù)AI模型處理方案——DGX SuperPOD

    據(jù)悉,新型DGX SuperPOD采用全新的高效水冷機(jī)架式設(shè)計,搭載英偉達(dá)DGX GB200系統(tǒng),F(xiàn)P4精度下具備11.5 exaflops的人工智能超級計算力以及240 terabytes的高速內(nèi)存。用戶可以通過加裝機(jī)架進(jìn)行持
    的頭像 發(fā)表于 03-19 14:35 ?676次閱讀

    NVIDIA 推出 Blackwell 架構(gòu) DGX SuperPOD,適用于萬億參數(shù)級的生成式 AI 超級計算

    ——? NVIDIA 于今日發(fā)布新一代 AI 超級計算機(jī) —— 搭載 NVIDIA GB200 Grace Blackwell 超級芯片的 NVIDIA DGX
    發(fā)表于 03-19 10:56 ?356次閱讀
    <b class='flag-5'>NVIDIA</b> 推出 Blackwell 架構(gòu) <b class='flag-5'>DGX</b> <b class='flag-5'>SuperPOD</b>,適用于萬億參數(shù)級的生成式 AI 超級計算

    天數(shù)智芯支持智源研究院首次完成大模型異構(gòu)算力混合訓(xùn)練,突破異構(gòu)算力束縛

    11 月 29 日,北京智源人工智能研究院副院長兼總工程師林詠華在 2023 人工智能計算大會上宣布,正式開源 700 億參數(shù)大模型 Aquila2-70B-Expr (異構(gòu)先驅(qū)版), 這是首個
    的頭像 發(fā)表于 11-30 13:10 ?3214次閱讀
    天數(shù)智芯支持智源<b class='flag-5'>研究院</b>首次完成大<b class='flag-5'>模型</b>異構(gòu)算力混合訓(xùn)練,突破異構(gòu)算力束縛

    新華社研究院:商湯“商量”獲評中國大模型市場未來領(lǐng)袖

    SenseChat ” 在定量實(shí)測的情商維度上,位居全部10款大模型第一 , 并在定性評估中入選大模型市場未來領(lǐng)袖象限 。此外,商湯賦能電力AI平臺智能化升級的實(shí)踐,也入圍新華社研究院報告的“廠商最佳實(shí)踐案例”。 新華社
    的頭像 發(fā)表于 11-29 18:30 ?472次閱讀
    新華社<b class='flag-5'>研究院</b>:商湯“商量”獲評中國大<b class='flag-5'>模型</b>市場未來領(lǐng)袖