0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

智源大會 | NVIDIA 科學(xué)家深度解析大語言模型訓(xùn)練和 3D 內(nèi)容創(chuàng)作最新成果

NVIDIA英偉達 ? 來源:未知 ? 2023-06-08 20:55 ? 次閱讀

北京智源大會是北京智源研究院主辦的年度國際性人工智能高端學(xué)術(shù)交流活動。自 2019 年 10 月首次召開至今,有 8 位圖靈獎得主曾參與大會,每年有 200 位頂尖專家出席,來自 30 多個國家和地區(qū)的觀眾齊聚一堂。

今年的大會將于 6 月 9 日至 10 日北京市海淀區(qū)中關(guān)村國家自主創(chuàng)新示范區(qū)展示中心召開,預(yù)計將有超過 3 萬名 AI 領(lǐng)域的專業(yè)人士在線上或線下參會,分享研究成果,學(xué)習前沿知識,交換實踐經(jīng)驗,建立聯(lián)系合作。

大語言模型和生成式 AI 代表了一個新的技術(shù)范式,推動著 AI 技術(shù)與各行各業(yè)的深度融合。

對于 3D 內(nèi)容創(chuàng)作領(lǐng)域,如何提升數(shù)字內(nèi)容生產(chǎn)力和生成效率,也成為其在大語言模型和生成式 AI 時代亟需思考的問題。

近幾年,NVIDIA 推出了一系列全棧式解決方案,以助力滿足大語言模型和生成式 AI 爆發(fā)式發(fā)展下的迅猛需求。在 3D 創(chuàng)作領(lǐng)域,從可逆渲染流程 NVIDIA 3D MoMa,到被美國《時代》周刊評為 2022 年度最佳發(fā)明的 NVIDIA Instant NeRF,以及近期在 CVPR 2023 發(fā)布的 NVIDIA Neuralangelo,NVIDIA Research 在 3D 視覺領(lǐng)域發(fā)布的一系列研究成果也受到廣泛關(guān)注。

對于 3D 內(nèi)容創(chuàng)作領(lǐng)域,基于這些大語言模型和生成式 AI 方面的研究進展和技術(shù)進步,不僅能夠提高設(shè)計的速度、準確性、以及建模的效率,創(chuàng)作方式本身也發(fā)生了變革。

明日(6 月 9 日)即將舉辦的北京智源大會上,來自 NVIDIA 的多位專家也受邀參會發(fā)表演講,包括 NVIDIA 中國區(qū)工程和解決方案高級總監(jiān)賴俊杰,以及來自 NVIDIA 多倫多 AI 實驗室的三位研究科學(xué)家——NVIDIA 高級研究科學(xué)家 Karsten Kreis、NVIDIA 研究科學(xué)家高俊、NVIDIA 研究科學(xué)家 Huan Ling。

NVIDIA 中國區(qū)工程和解決方案高級總監(jiān)賴俊杰將深度解析 NVIDIA GPU硬件結(jié)合的技術(shù)創(chuàng)新如何推動大模型技術(shù)的發(fā)展演進,介紹如何基于 NVIDIA Megatron 更高效地構(gòu)建大語言模型訓(xùn)練系統(tǒng),在大模型時代提高模型開發(fā)效率和模型質(zhì)量。

來自 NVIDIA 多倫多 AI實驗室的研究科學(xué)家們將帶來兩場精彩的學(xué)術(shù)分享。隨著許多行業(yè)對創(chuàng)建大規(guī)模 3D 虛擬世界的需求不斷增加,對多樣化和高質(zhì)量的 3D 內(nèi)容有巨大的需求。他們將概述 NVIDIA 最近在機器學(xué)習和擴散模型方面的工作及其在圖像、視頻和 3D 內(nèi)容創(chuàng)建方面的應(yīng)用,以實現(xiàn)大規(guī)模的 3D 內(nèi)容創(chuàng)作,并將重點介紹在 3D 生成建模方面的不同努力,包括以對象為中心的 3D 合成以及全場景級生成。

AI 系統(tǒng)論壇

基于 NVIDIA Megatron 更高效地

構(gòu)建大語言模型訓(xùn)練系統(tǒng)

6 月 10 日上午 1045

暢春廳

大語言模型是當今最重要的先進技術(shù)之一,NVIDIA 開發(fā)的基于 PyTorch 的訓(xùn)練框架 - Megatron 與 NeMo Framework 的開創(chuàng)性技術(shù),能夠提高訓(xùn)練速度且可擴展性強,使得大模型的訓(xùn)練和部署變得更加容易,具有更短的時間成本和更快的結(jié)果。

本議題將深度解析 NVIDIA GPU 軟硬件結(jié)合的技術(shù)創(chuàng)新如何推動大模型技術(shù)的發(fā)展演進,NVIDIA Megatron 框架的優(yōu)化方法,包括其高效的并行策略、內(nèi)存優(yōu)化技術(shù)等,以及如何利用該框架在大模型時代提高模型開發(fā)效率和模型質(zhì)量。

演講嘉賓

d4cb4d0e-05fa-11ee-962d-dac502259ad0.png

賴俊杰

NVIDIA 中國區(qū)工程和解決方案高級總監(jiān)

賴俊杰主要負責帶領(lǐng)團隊對接中國區(qū)核心大客戶的技術(shù)需求,以及開發(fā)相應(yīng)的行業(yè)解決方案,定制軟件產(chǎn)品等。賴博士本科和碩士就讀于清華大學(xué)電子工程系,并于法國國家計算機與自動化研究所獲得博士學(xué)位。博士期間的主要研究方向包括 GPU 架構(gòu)研究,及 GPU 性能分析模型。賴博士專注在高性能計算、并行計算、人工智能及互聯(lián)網(wǎng)行業(yè)應(yīng)用,在并行程序的性能分析及性能優(yōu)化領(lǐng)域有豐富的經(jīng)驗。

視覺與多模態(tài)大模型論壇

機器學(xué)習促進 3D 內(nèi)容創(chuàng)作

6 月 9 日下午 1450

靜宜廳

隨著許多行業(yè)對創(chuàng)建大規(guī)模 3D 虛擬世界的需求不斷增加,對多樣化和高質(zhì)量的 3D 內(nèi)容有巨大的需求。機器學(xué)習的存在使這一追求成為可能。本場演講將討論如何從結(jié)合可分化等值面和可分化渲染的角度出發(fā),實現(xiàn)大規(guī)模的 3D 內(nèi)容創(chuàng)作,并對現(xiàn)實世界產(chǎn)生影響。

為此,研究中首先介紹了一種基于四面體網(wǎng)格的可微分三維表示法,以實現(xiàn)任意拓撲結(jié)構(gòu)的三維網(wǎng)格的高質(zhì)量恢復(fù)。通過結(jié)合可分化的渲染,研究者進一步設(shè)計了一個生成模型,能夠產(chǎn)生具有復(fù)雜紋理和材料的 3D 形狀,用于網(wǎng)格生成。研究中所用框架為從文本提示中利用二維擴散模型進行創(chuàng)新的高質(zhì)量三維網(wǎng)格創(chuàng)建鋪平了道路,這使新手的 3D 內(nèi)容創(chuàng)建更加大眾化。

演講嘉賓

高俊

NVIDIA 研究科學(xué)家

高俊是多倫多大學(xué)的博士生,由 Sanja Fidler 教授指導(dǎo)。他也是 NVIDIA 多倫多 AI 實驗室的一名研究科學(xué)家。他的研究興趣集中在 3D 計算機視覺和計算機圖形的交叉領(lǐng)域,特別是開發(fā)機器學(xué)習工具,以促進大規(guī)模的 3D 內(nèi)容創(chuàng)作并推動現(xiàn)實世界的應(yīng)用。他的許多貢獻已經(jīng)在產(chǎn)品中實現(xiàn),包括 NVIDIA Picasso、GANVerse3D、Neural DriveSim 和 Toronto Annotation Suite。他將在 2023 年的 NeurIPS 上擔任領(lǐng)域主席。

借助擴散模型進行圖像、視頻

和 3D 內(nèi)容創(chuàng)作

6 月 9 日下午 15:35 - 16:20

靜宜廳

基于擴散的降噪生成模型激發(fā)了深度生成學(xué)習的多項突破。本場演講將概述 NVIDIA 最近在擴散模型方面的工作及其在圖像、視頻和 3D 內(nèi)容創(chuàng)建方面的應(yīng)用。演講將從對擴散模型的簡短介紹開始,討論大規(guī)模文本到圖像的生成,然后重點介紹在 3D 生成建模方面開展的多項工作,包括以對象為中心的 3D 合成以及全場景級生成。最后將討論的是 NVIDIA 最近在使用視頻潛在擴散模型生成高分辨率視頻方面的工作。研究者將最先進的文本到圖像模型 Stable Diffusion 轉(zhuǎn)變?yōu)楦叻直媛饰谋镜揭曨l生成器,還演示了真實野外駕駛場景視頻的模擬。

演講嘉賓

Karsten Kreis

NVIDIA 高級研究科學(xué)家

Karsten Kreis 是 NVIDIA 多倫多 AI 實驗室的高級研究科學(xué)家。在加入 NVIDIA 之前,他在 D-Wave Systems 從事深度生成建模工作,并與他人共同創(chuàng)立了 Variational AI,這是一家利用生成模型進行藥物發(fā)現(xiàn)的初創(chuàng)公司。在轉(zhuǎn)向深度學(xué)習之前,他在馬克斯-普朗克光科學(xué)研究所獲得了量子信息理論碩士學(xué)位,并在馬克斯-普朗克聚合物研究所獲得了計算和統(tǒng)計物理學(xué)博士學(xué)位。目前,Karsten 的研究重點是開發(fā)新的生成學(xué)習方法,主要是擴散模型,以及將深度生成模型應(yīng)用于計算機視覺、圖形和數(shù)字藝術(shù)以及自然科學(xué)等領(lǐng)域的問題。

Huan Ling

NVIDIA 研究科學(xué)家

Huan Ling 是 NVIDIA 多倫多人工智能實驗室的研究科學(xué)家,他是多倫多大學(xué) Sanja Fidler 教授的博士生,還是 Vector Institute 的研究員。他的研究重點是大規(guī)模生成模型以及將生成模型用于計算機視覺感知任務(wù)。他在 NVIDIA 的研究工作包括 DatasetGAN、EditGAN 和 Align your Latents: VideoLDM。

點擊“閱讀原文”即可報名現(xiàn)場參加各專題論壇或預(yù)約線上直播,快來參會吧!

掃描下方海報二維碼,觀看 NVIDIA 創(chuàng)始人兼 CEO 黃仁勛在 COMPUTEX 2023 的主題演講直播回放,主題演講中文字幕版已上線,了解 AI、圖形及其他領(lǐng)域的最新進展!


原文標題:智源大會 | NVIDIA 科學(xué)家深度解析大語言模型訓(xùn)練和 3D 內(nèi)容創(chuàng)作最新成果

文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達
    +關(guān)注

    關(guān)注

    22

    文章

    3640

    瀏覽量

    89885

原文標題:智源大會 | NVIDIA 科學(xué)家深度解析大語言模型訓(xùn)練和 3D 內(nèi)容創(chuàng)作最新成果

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)知識學(xué)習

    一些局限性。例如,模型可能無法完全理解文本中的深層含義和語境信息;同時,由于訓(xùn)練數(shù)據(jù)可能存在偏差和噪聲,生成的答案也可能存在不準確或誤導(dǎo)性的情況。 總結(jié)以下,大語言模型通過
    發(fā)表于 08-02 11:03

    llm模型訓(xùn)練一般用什么系統(tǒng)

    LLM(Large Language Model,大型語言模型)是近年來在自然語言處理領(lǐng)域取得顯著成果的一種深度學(xué)習
    的頭像 發(fā)表于 07-09 10:02 ?222次閱讀

    Meta推出革命性3D Gen AI模型:1分鐘內(nèi)生成高質(zhì)量3D內(nèi)容

    在科技日新月異的今天,Meta再次引領(lǐng)創(chuàng)新潮流,宣布了一項令人矚目的技術(shù)突破——3D Gen AI模型的誕生。這款先進的模型以其前所未有的高效性與卓越品質(zhì),重新定義了3D
    的頭像 發(fā)表于 07-04 18:12 ?877次閱讀

    新華社:突破性成果!祝賀我國科學(xué)家成功研發(fā)這一傳感器!

    6月25日,新華社以《突破性成果!祝賀我國科學(xué)家》為標題,報道了由我國科學(xué)家研發(fā)的傳感器成果。 我國科學(xué)家研發(fā)高通道神經(jīng)探針實現(xiàn)獼猴全腦尺度
    的頭像 發(fā)表于 06-27 18:03 ?310次閱讀
    新華社:突破性<b class='flag-5'>成果</b>!祝賀我國<b class='flag-5'>科學(xué)家</b>成功研發(fā)這一傳感器!

    【大語言模型:原理與工程實踐】大語言模型的預(yù)訓(xùn)練

    語言模型的核心特點在于其龐大的參數(shù)量,這賦予了模型強大的學(xué)習容量,使其無需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)習容量的增加,對預(yù)訓(xùn)練數(shù)據(jù)的需求也相
    發(fā)表于 05-07 17:10

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    語言模型(LLM)是人工智能領(lǐng)域的尖端技術(shù),憑借龐大的參數(shù)量和卓越的語言理解能力贏得了廣泛關(guān)注。它基于深度學(xué)習,利用神經(jīng)網(wǎng)絡(luò)框架來理解和生成自然
    發(fā)表于 05-04 23:55

    ad19中3d模型不顯示?

    封裝庫導(dǎo)入3d模型不顯示,但導(dǎo)入3d模型后的封裝庫生成pcb文件時顯示3d模型,這是什么原因?qū)е?/div>
    發(fā)表于 04-24 13:41

    NVIDIA生成式AI研究實現(xiàn)在1秒內(nèi)生成3D形狀

    NVIDIA 研究人員使 LATTE3D (一款最新文本轉(zhuǎn) 3D 生成式 AI 模型)實現(xiàn)雙倍加速。
    的頭像 發(fā)表于 03-27 10:28 ?366次閱讀
    <b class='flag-5'>NVIDIA</b>生成式AI研究實現(xiàn)在1秒內(nèi)生成<b class='flag-5'>3D</b>形狀

    NVIDIA首席科學(xué)家Bill Dally:深度學(xué)習硬件趨勢

    Bill Dally于2009年1月加入NVIDIA擔任首席科學(xué)家,此前在斯坦福大學(xué)任職12年,擔任計算機科學(xué)系主任。Dally及其斯坦福團隊開發(fā)了系統(tǒng)架構(gòu)、網(wǎng)絡(luò)架構(gòu)、信號傳輸、路由和同步技術(shù),在今天的大多數(shù)大型并行計算機中都可
    的頭像 發(fā)表于 02-25 16:16 ?897次閱讀
    <b class='flag-5'>NVIDIA</b>首席<b class='flag-5'>科學(xué)家</b>Bill Dally:<b class='flag-5'>深度</b>學(xué)習硬件趨勢

    3D人體生成模型HumanGaussian實現(xiàn)原理

    3D 生成領(lǐng)域,根據(jù)文本提示創(chuàng)建高質(zhì)量的 3D 人體外觀和幾何形狀對虛擬試穿、沉浸式遠程呈現(xiàn)等應(yīng)用有深遠的意義。傳統(tǒng)方法需要經(jīng)歷一系列人工制作的過程,如 3D 人體模型回歸、綁定、
    的頭像 發(fā)表于 12-20 16:37 ?1314次閱讀
    <b class='flag-5'>3D</b>人體生成<b class='flag-5'>模型</b>HumanGaussian實現(xiàn)原理

    NVIDIA 為部分大型亞馬遜 Titan 基礎(chǔ)模型提供訓(xùn)練支持

    本文將介紹亞馬遜如何使用 NVIDIA NeMo 框架、GPU 以及亞馬遜云科技的 EFA 來訓(xùn)練其 最大的新一代大語言模型(LLM)。 大語言
    的頭像 發(fā)表于 11-29 21:15 ?457次閱讀
    <b class='flag-5'>NVIDIA</b> 為部分大型亞馬遜 Titan 基礎(chǔ)<b class='flag-5'>模型</b>提供<b class='flag-5'>訓(xùn)練</b>支持

    阿迪達斯與 Covision Media 使用 AI 和 NVIDIA RTX 創(chuàng)建逼真的 3D 內(nèi)容

    Covision Media 正在使用 AI 和 NVIDIA RTX 改進 3D 掃描流程和 3D 內(nèi)容創(chuàng)建。 Covis
    的頭像 發(fā)表于 11-28 18:45 ?549次閱讀
    阿迪達斯與 Covision Media 使用 AI 和 <b class='flag-5'>NVIDIA</b> RTX 創(chuàng)建逼真的 <b class='flag-5'>3D</b> <b class='flag-5'>內(nèi)容</b>

    基于PyTorch的模型并行分布式訓(xùn)練Megatron解析

    NVIDIA Megatron 是一個基于 PyTorch 的分布式訓(xùn)練框架,用來訓(xùn)練超大Transformer語言模型,其通過綜合應(yīng)用了數(shù)
    的頭像 發(fā)表于 10-23 11:01 ?2363次閱讀
    基于PyTorch的<b class='flag-5'>模型</b>并行分布式<b class='flag-5'>訓(xùn)練</b>Megatron<b class='flag-5'>解析</b>

    NVIDIA 知乎精彩問答甄選 | 分享 NVIDIA 在藝術(shù)創(chuàng)作方面的精彩問答

    徹底改變 3D 內(nèi)容創(chuàng)作NVIDIA Omniverse 作為創(chuàng)建和處理元宇宙應(yīng)用的平臺,已通過更新的虛幻
    的頭像 發(fā)表于 10-13 20:30 ?400次閱讀

    C語言深度解析

    C語言深度解析,本資料來源于網(wǎng)絡(luò),對C語言的學(xué)習有很大的幫助,有著較為深刻的解析,可能會對讀者有一定的幫助。
    發(fā)表于 09-28 07:00