0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CNCC | 論壇:探索 AI 全棧解決方案和基于 LLM 的推理與部署實(shí)踐

NVIDIA英偉達(dá) ? 來源:未知 ? 2023-10-24 10:30 ? 次閱讀

2023 年中國計(jì)算機(jī)大會(huì)(CNCC2023)以“發(fā)展數(shù)字基礎(chǔ)設(shè)施,支撐數(shù)字中國建設(shè)”為主題,將于 10 月 26 - 28 日在沈陽新世界博覽館舉辦。

NVIDIA 攜手合作伙伴麗臺科技受邀為大會(huì)帶來三大技術(shù)論壇,并在展位開設(shè)持續(xù)兩天的開發(fā)者小課堂,為計(jì)算機(jī)行業(yè)的學(xué)者、研究人員、開發(fā)者和高校的同學(xué)們帶來 NVIDIA 的最新技術(shù)應(yīng)用實(shí)踐。歡迎蒞臨我們的展位(沈陽新世界博覽館 4 樓 C 展館 T13),與我們一起探索 AI加速計(jì)算的未來,開啟生成式 AI 新時(shí)代!

NVIDIA 在 CNCC2023 的活動(dòng)概覽:

時(shí)間

主題

地點(diǎn)

10 月 26 日

13:30 - 17:30

NVIDIA AI 全棧技術(shù)解決方案研討會(huì)

沈陽皇朝萬鑫酒店

8 層 - 16

10 月 27 日

13:30 - 17:30

基于超大模型的推理和部署實(shí)踐

沈陽新世界博覽館

5 層會(huì)議室 503

10 月 28 日

13:30 - 17:30

探索 Omniverse和AI加速創(chuàng)作開發(fā)流程

沈陽皇朝萬鑫酒店

8 層 - 19

10 月 26 日

– 27 日

開發(fā)者小課堂

沈陽新世界博覽館

4 樓 C 展館 T13

10 月 26 – 27 日,NVIDIA 將舉辦兩場技術(shù)論壇:NVIDIA AI 全棧技術(shù)解決方案研討會(huì)和基于超大模型的推理和部署實(shí)踐分論壇,我們將分享 AI 領(lǐng)域最新的發(fā)展趨勢,探討大語言模型的崛起如何為 AI 技術(shù)的應(yīng)用開拓新領(lǐng)域。

論壇詳情

NVIDIA AI 全棧技術(shù)解決方案研討會(huì)

時(shí)間:10 月 26 日 13:30 - 17:30

地點(diǎn):沈陽皇朝萬鑫酒店 8 層 - 16

AI 正迎來有史以來最輝煌的時(shí)刻,新的 AI 技術(shù)和迅速發(fā)展的應(yīng)用正在改變各行各業(yè)。從自主機(jī)器人開發(fā)、自動(dòng)駕駛系統(tǒng)和軟件、GPU 加速的大語言模型以及火熱的生成式 AI 背后的智能網(wǎng)絡(luò)技術(shù)。在 NVIDIA AI 全棧技術(shù)解決方案論壇,NVIDIA 專家將為您揭示 AI 技術(shù)新趨勢。

?+

+

具體議程

面向生成式 AI 的端到端高性能網(wǎng)絡(luò)關(guān)鍵技術(shù)

演講時(shí)間:13:35 - 14:20

演講簡介:分享 Spectrum-X 平臺技術(shù)創(chuàng)新及其在 AI Cloud 行業(yè)的應(yīng)用介紹 Quantum 平臺及網(wǎng)絡(luò)計(jì)算技術(shù)對大規(guī)模生成式 AI 應(yīng)用的加速。

-------------------------

wKgZomU3LVmAY53IAAAt4J-yd80838.jpg

馮高鋒

NVIDIA HPC-AI 技術(shù)市場高級總監(jiān)

構(gòu)建 LLM 大規(guī)模訓(xùn)練推理基礎(chǔ)架構(gòu)的最佳實(shí)踐(網(wǎng)絡(luò)篇)

演講時(shí)間:14:20 - 15:05

演講簡介:以當(dāng)前火熱的大語言模型(LLM)生成式人工智能為切入點(diǎn),探索其成功背后的全棧智能網(wǎng)絡(luò)技術(shù),并介紹 NVIDIA BlueField-3 DPU 和 NVIDIA DOCA 2.0 為加速計(jì)算提供高性能、高效率和高安全性的云計(jì)算基礎(chǔ)設(shè)施。

-------------------------

wKgZomU3LVmAERMgAAAOztQ4g4s744.jpg

王淼

NVIDIA 解決方案總監(jiān)

NVIDIA 互聯(lián)網(wǎng)行業(yè) Infra 方向技術(shù)負(fù)責(zé)人

構(gòu)建 LLM 大規(guī)模訓(xùn)練推理基礎(chǔ)架構(gòu)的最佳實(shí)踐(GPU 篇)

演講時(shí)間:15:05 - 15:50

演講簡介:介紹 NVIDIA 在 LLM 訓(xùn)練和推理場景的基礎(chǔ)架構(gòu)層面的最佳產(chǎn)品和方案。NVIDIA DGX SuperPOD 架構(gòu)是實(shí)現(xiàn) LLM 訓(xùn)練的最高性能基礎(chǔ)架構(gòu),由 NVIDIA 實(shí)現(xiàn)全棧交付,極致滿足客戶算力需求。同時(shí),NVIDIA Hopper NVL 產(chǎn)品可靈活適配主流服務(wù)器,在 LLM 推理場景幫助客戶實(shí)現(xiàn)更高收益。

-------------------------

wKgZomU3LVmAJmh1AAA8y-OPnN0275.jpg

艾靜

NVIDIA 解決方案架構(gòu)師

市場高級總監(jiān)

NVIDIA 加速邊緣計(jì)算和自主機(jī)器開發(fā)

演講時(shí)間:15:50 - 16:35

演講簡介:智能機(jī)器人和邊緣計(jì)算是現(xiàn)在人工智能的一個(gè)熱點(diǎn),NVIDIA 提供軟硬件全棧解決方案,從仿真開發(fā)到部署,助力邊緣計(jì)算和智能機(jī)器人應(yīng)用的實(shí)現(xiàn)。同時(shí),豐富強(qiáng)大的生態(tài)幫助開發(fā)者和用戶加速開發(fā)過程,輕松應(yīng)對全行業(yè)應(yīng)用。

-------------------------

wKgZomU3LVqAKuGJAAAqAq-NnYc657.jpg

李雨倩

NVIDIA 開發(fā)者關(guān)系總監(jiān)

NVIDIA 全棧加速自動(dòng)駕駛開發(fā)

演講時(shí)間:16:35 - 17:20

演講簡介:圍繞著自動(dòng)駕駛整個(gè)數(shù)據(jù)閉環(huán)開發(fā),NVIDIA 提供全棧的解決方案,從硬件、系統(tǒng)到軟件,從數(shù)據(jù)中心到車端,助力自動(dòng)駕駛高效開發(fā)、快速迭代。

-------------------------

wKgZomU3LVqAKcf_AAA8V_d81Pk744.jpg

程帥

NVIDIA 解決方案架構(gòu)師

基于超大模型的推理和部署實(shí)踐分論壇

時(shí)間:10 月 27 日 13:30 - 17:30

地點(diǎn):沈陽新世界博覽館5層會(huì)議室503

大語言模型的興起為 AI 技術(shù)的應(yīng)用開辟了更廣闊的空間,越來越多研究和實(shí)踐證明超大模型在各類任務(wù)上的卓越能力與重要性。在 CNCC2023 大會(huì)上,騰訊、百度和阿里云將攜手 NVIDIA 帶來《基于超大模型的推理和部署實(shí)踐》論壇。

通過本次論壇,您將了解到騰訊的生成式 AI 如何高效地部署;百度飛槳在 LLM 分布式訓(xùn)練方面的最新技術(shù);阿里云 PAI 大語言模型推理服務(wù)實(shí)踐;NVIDIA 在 GPU LLM 訓(xùn)練與推理部署優(yōu)化解決方案以及構(gòu)建 LLM 大規(guī)模訓(xùn)練推理基礎(chǔ)架構(gòu)的最佳實(shí)踐分享。

?+

+

具體議程

生成式 AI 高效部署實(shí)踐

演講時(shí)間:13:35 - 14:20

演講簡介:自 OpenAI 推出 ChatGPT 后,市場反應(yīng)強(qiáng)烈。國內(nèi)外科技公司快速跟進(jìn),到今年三月份,各公司逐步推出其專屬的 ChatGPT 版本,并基于此開發(fā)逐步研發(fā)相關(guān)的商業(yè)應(yīng)用。而 GPT 超大的模型結(jié)構(gòu)在部署時(shí)產(chǎn)生的高延遲,高成本是其商業(yè)化路上的最大障礙。我們將從小型化算法、推理框架及服務(wù)化部署等多個(gè)方面和大家分享工業(yè)級 GPT 高效部署優(yōu)化方案。

-------------------------

wKgZomU3LVqAJTRzAAAcHutI8Zo633.jpg

劉凱

騰訊高級工程師

基于飛槳的 LLM 訓(xùn)練和應(yīng)用實(shí)踐

演講時(shí)間:14:20 - 15:05

演講簡介:介紹飛槳在 LLM 分布式訓(xùn)練方面的最新技術(shù),針對 LLM 的開發(fā)、訓(xùn)練、Tuning、推理全流程工具設(shè)計(jì),以及實(shí)際大規(guī)模訓(xùn)練和部署的應(yīng)用實(shí)踐。

-------------------------

wKgZomU3LVqAQ-7zAAA-6r81wxQ560.jpg

曾錦樂

百度資深工程師

GPU LLM 訓(xùn)練與推理部署優(yōu)化實(shí)踐與解決方案

演講時(shí)間:15:05 - 15:50

演講簡介:介紹大語言模型訓(xùn)練推理中常用的優(yōu)化支持和技巧(數(shù)據(jù)并行、Tensor 并行、Pipline 并行、Sequence并行、selective activation recompute、NCCL、TRTLLM 等)以及 Nemo framework 的全鏈路支持方案。

-------------------------

wKgZomU3LVqAKlOrAABHQ_A69O4004.jpg

高慧怡

NVIDIA 解決方案架構(gòu)師

阿里云 PAI 大語言模型推理服務(wù)實(shí)踐

演講時(shí)間:15:50 - 16:35

演講簡介:大語言模型的興起為人工智能技術(shù)的應(yīng)用開辟了更廣闊的空間。然而,大語言模型的訓(xùn)練和推理都需要大量的計(jì)算資源和時(shí)間,因此,性能和成本是大語言模型普及路上的重要挑戰(zhàn)。演講將主要介紹阿里云 PAI 平臺為了應(yīng)對這一挑戰(zhàn)所做的工作,包括:

1)如何基于推理加速技術(shù)在 GPU 特別是 NVIDIA 平臺上實(shí)現(xiàn)了大語言模型推理的高效推理;

2)如何利用云平臺天然的彈性特性,通過資源調(diào)度降低用戶的成本;

3)如何在保證性能和成本的前提下保持靈活性,支持社區(qū)百花齊放的大語言模型。

-------------------------

wKgZomU3LVuAMfNKAAB7CSwC6yM384.jpg

邱俠斐

阿里云機(jī)器學(xué)習(xí)平臺(PAI)系統(tǒng)優(yōu)化團(tuán)隊(duì)負(fù)責(zé)人

構(gòu)建 LLM 大規(guī)模訓(xùn)練推理基礎(chǔ)架構(gòu)的最佳實(shí)踐(基礎(chǔ)架構(gòu)篇)

演講時(shí)間:16:35 - 17:20

演講簡介:介紹 NVIDIA 在 LLM 訓(xùn)練和推理場景的基礎(chǔ)架構(gòu)層面的最佳產(chǎn)品和方案。NVIDIA DGX SuperPOD 架構(gòu)是實(shí)現(xiàn) LLM 訓(xùn)練的最高性能基礎(chǔ)架構(gòu),由 NVIDIA 實(shí)現(xiàn)全棧交付,極致滿足客戶算力需求。同時(shí),NVIDIA Hopper NVL 產(chǎn)品可靈活適配主流服務(wù)器,在 LLM 推理場景幫助客戶實(shí)現(xiàn)更高收益。

-------------------------

wKgZomU3LVmAJmh1AAA8y-OPnN0275.jpg

艾靜

NVIDIA 解決方案架構(gòu)師

內(nèi)容分享后更有問答交流環(huán)節(jié),現(xiàn)場專家陣容將悉心為您答疑解惑!

報(bào)名參會(huì)

掃描下方二維碼,即刻報(bào)名參與論壇。

期待您蒞臨現(xiàn)場,一起領(lǐng)略更多精彩!

wKgZomU3LVuAIcWZAABRwoeGjGE484.jpg

您可以從CNCC2023 | 開啟生成式 AI 新時(shí)代!NVIDIA 多場論壇下周重磅登場全面了解 NVIDIA 在 CNCC 的活動(dòng)概覽。

后續(xù)我們還將為您呈現(xiàn)關(guān)于探索 Omniverse 和 AI 加速創(chuàng)作開發(fā)流程論壇的詳細(xì)信息,請持續(xù)關(guān)注我們。

GTC 2024 將于 2024 年 3 月 18 至 21 日在美國加州圣何塞會(huì)議中心舉行,線上大會(huì)也將同期開放。點(diǎn)擊“閱讀原文”掃描下方海報(bào)二維碼,關(guān)注更多會(huì)議及活動(dòng)信息。

wKgZomU3LVuAR-wKAAFtccdApf0933.jpg


原文標(biāo)題:CNCC | 論壇:探索 AI 全棧解決方案和基于 LLM 的推理與部署實(shí)踐

文章出處:【微信公眾號:NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3637

    瀏覽量

    89832

原文標(biāo)題:CNCC | 論壇:探索 AI 全棧解決方案和基于 LLM 的推理與部署實(shí)踐

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    聯(lián)想集團(tuán)攜AI解決方案亮相2024年云棲大會(huì)

    在萬眾矚目的2024年云棲大會(huì)上,聯(lián)想集團(tuán)首次以震撼姿態(tài)展露了其AI解決方案的宏偉藍(lán)圖,全方位覆蓋從AI終端、基礎(chǔ)設(shè)施到
    的頭像 發(fā)表于 09-20 16:36 ?196次閱讀

    AMD助力HyperAccel開發(fā)全新AI推理服務(wù)器

    HyperAccel 是一家成立于 2023 年 1 月的韓國初創(chuàng)企業(yè),致力于開發(fā) AI 推理專用型半導(dǎo)體器件和硬件,最大限度提升推理工作負(fù)載的存儲(chǔ)器帶寬使用,并通過將此解決方案應(yīng)用于
    的頭像 發(fā)表于 09-18 09:37 ?162次閱讀
    AMD助力HyperAccel開發(fā)全新<b class='flag-5'>AI</b><b class='flag-5'>推理</b>服務(wù)器

    開啟全新AI時(shí)代 智能嵌入式系統(tǒng)快速發(fā)展——“第六屆國產(chǎn)嵌入式操作系統(tǒng)技術(shù)與產(chǎn)業(yè)發(fā)展論壇”圓滿結(jié)束

    操作系統(tǒng)標(biāo)準(zhǔn)化的最新進(jìn)展。 華為計(jì)算產(chǎn)業(yè)戰(zhàn)略規(guī)劃總監(jiān)周明耀在論壇上做了“華為在AI軟硬件上積累及生態(tài)戰(zhàn)略”專題報(bào)告。周明耀介紹華為計(jì)算產(chǎn)業(yè)在AI軟硬件
    發(fā)表于 08-30 17:24

    三行代碼完成生成式AI部署

    LLM加載與推理部署能力,實(shí)現(xiàn)了OpenVINO對CNN網(wǎng)絡(luò)、生成式模型、LLM網(wǎng)絡(luò)主流模型的全面推理支持。
    的頭像 發(fā)表于 08-30 16:49 ?228次閱讀
    三行代碼完成生成式<b class='flag-5'>AI</b><b class='flag-5'>部署</b>

    魔搭社區(qū)借助NVIDIA TensorRT-LLM提升LLM推理效率

    “魔搭社區(qū)是中國最具影響力的模型開源社區(qū),致力給開發(fā)者提供模型即服務(wù)的體驗(yàn)。魔搭社區(qū)利用NVIDIA TensorRT-LLM,大大提高了大語言模型的推理性能,方便了模型應(yīng)用部署,提高了大模型產(chǎn)業(yè)應(yīng)用效率,更大規(guī)模地釋放大模型的
    的頭像 發(fā)表于 08-23 15:48 ?233次閱讀

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個(gè)研究熱點(diǎn),旨在提高模型在處理復(fù)雜任務(wù)時(shí)的效率和響應(yīng)速度。以下是對LLM大模型推理加速關(guān)鍵技術(shù)的詳細(xì)探討,內(nèi)容將涵蓋模型壓縮、
    的頭像 發(fā)表于 07-24 11:38 ?493次閱讀

    寧暢推出“液”AI基礎(chǔ)設(shè)施方案

    近日,寧暢科技正式發(fā)布其“液”AI基礎(chǔ)設(shè)施方案,這一創(chuàng)新舉措旨在全面支持大模型落地所需的各項(xiàng)技術(shù)需求。該
    的頭像 發(fā)表于 05-31 09:18 ?473次閱讀

    廣和通AIoT解決方案助力AI之眼探索視界

    廣和通深度探索計(jì)算機(jī)視覺的關(guān)鍵技術(shù)與難點(diǎn),助力客戶實(shí)現(xiàn)計(jì)算機(jī)視覺端側(cè)部署,以高算力模組及解決方案大大簡化智能終端視覺部署的難度。
    的頭像 發(fā)表于 04-23 18:07 ?531次閱讀

    廣和通AIoT解決方案助力AI之眼探索視界

    廣和通深度探索計(jì)算機(jī)視覺的關(guān)鍵技術(shù)與難點(diǎn),助力客戶實(shí)現(xiàn)計(jì)算機(jī)視覺端側(cè)部署,以高算力模組及解決方案大大簡化智能終端視覺部署的難度。
    的頭像 發(fā)表于 04-23 18:07 ?205次閱讀
    廣和通AIoT<b class='flag-5'>解決方案</b>助力<b class='flag-5'>AI</b>之眼<b class='flag-5'>探索</b>視界

    自然語言處理應(yīng)用LLM推理優(yōu)化綜述

    當(dāng)前,業(yè)界在將傳統(tǒng)優(yōu)化技術(shù)引入 LLM 推理的同時(shí),同時(shí)也在探索從大模型自回歸解碼特點(diǎn)出發(fā),通過調(diào)整推理過程和引入新的模型結(jié)構(gòu)來進(jìn)一步提升推理
    發(fā)表于 04-10 11:48 ?448次閱讀
    自然語言處理應(yīng)用<b class='flag-5'>LLM</b><b class='flag-5'>推理</b>優(yōu)化綜述

    Hugging Face LLM部署大語言模型到亞馬遜云科技Amazon SageMaker推理示例

    ?本篇文章主要介紹如何使用新的Hugging Face LLM推理容器將開源LLMs,比如BLOOM大型語言模型部署到亞馬遜云科技Amazon SageMaker進(jìn)行推理的示例。我們將
    的頭像 發(fā)表于 11-01 17:48 ?769次閱讀
    Hugging Face <b class='flag-5'>LLM</b><b class='flag-5'>部署</b>大語言模型到亞馬遜云科技Amazon SageMaker<b class='flag-5'>推理</b>示例

    周四研討會(huì)預(yù)告 | 注冊報(bào)名 NVIDIA AI Inference Day - 大模型推理線上研討會(huì)

    推理加速和部署的服務(wù)化實(shí)現(xiàn)管道、性能收益,以及金融行業(yè)加速計(jì)算解決方案,為您 LLM 和生成式 AI 開發(fā)的增效降本提供領(lǐng)先的技術(shù)路線參考
    的頭像 發(fā)表于 10-26 09:05 ?283次閱讀

    CNCC技術(shù)論壇預(yù)告 | 大算力需求背景下,DPU芯片應(yīng)用實(shí)踐解決方案探索

    作為計(jì)算領(lǐng)域?qū)W術(shù)、技術(shù)、產(chǎn)業(yè)、教育各界共同探討發(fā)展趨勢的年度盛會(huì),由中國計(jì)算機(jī)學(xué)會(huì)主辦的第二十屆計(jì)算機(jī)大會(huì)(CNCC 2023)將于10月26-28日在沈陽舉行。CNCC 2023將以“發(fā)展數(shù)字
    的頭像 發(fā)表于 10-25 16:05 ?372次閱讀
    <b class='flag-5'>CNCC</b>技術(shù)<b class='flag-5'>論壇</b>預(yù)告 | 大算力需求背景下,DPU芯片應(yīng)用<b class='flag-5'>實(shí)踐</b>和<b class='flag-5'>解決方案</b><b class='flag-5'>探索</b>

    CNCC | 論壇探索 Omniverse 和 AI 加速創(chuàng)作開發(fā)流程

    帶來三大技術(shù)論壇,并在展位開設(shè)持續(xù)兩天的開發(fā)者小課堂,為計(jì)算機(jī)行業(yè)的學(xué)者、研究人員、開發(fā)者和高校的同學(xué)們帶來 NVIDIA 的最新技術(shù)應(yīng)用實(shí)踐。歡迎蒞臨我們的展位(沈陽新世界博覽館 4 樓 C 展館 T13),與我們一起探索
    的頭像 發(fā)表于 10-25 15:55 ?228次閱讀
    <b class='flag-5'>CNCC</b> | <b class='flag-5'>論壇</b>:<b class='flag-5'>探索</b> Omniverse 和 <b class='flag-5'>AI</b> 加速創(chuàng)作開發(fā)流程

    mlc-llm對大模型推理的流程及優(yōu)化方案

    在 MLC-LLM 部署RWKV World系列模型實(shí)戰(zhàn)(3B模型Mac M2解碼可達(dá)26tokens/s) 中提到要使用mlc-llm部署模型首先需要一個(gè)編譯過程,將原始的基于Rea
    發(fā)表于 09-26 12:25 ?729次閱讀
    mlc-<b class='flag-5'>llm</b>對大模型<b class='flag-5'>推理</b>的流程及優(yōu)化<b class='flag-5'>方案</b>