0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GTC 2023:多模態(tài)短視頻模型推理優(yōu)化方案解析

西西 ? 來源:英偉達(dá)官網(wǎng) ? 作者:英偉達(dá)官網(wǎng) ? 2023-03-23 18:17 ? 次閱讀

演講人:李杰,快手科技算法引擎工程師

關(guān)于多模態(tài)短視頻模型推理優(yōu)化方案解析

多卡推理--流水線并行:將模型和數(shù)據(jù)切分,以流水線形式計算,提高GPU利用率。模型切分策略:依照各部分的計算時間和參數(shù)量設(shè)計。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4673

    瀏覽量

    128592
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3720

    瀏覽量

    90682
  • gtc
    gtc
    +關(guān)注

    關(guān)注

    0

    文章

    73

    瀏覽量

    4406
  • 短視頻
    +關(guān)注

    關(guān)注

    1

    文章

    124

    瀏覽量

    8908
收藏 人收藏

    評論

    相關(guān)推薦

    CDN高級技術(shù)專家周哲:深度剖析短視頻分發(fā)過程中的用戶體驗(yàn)優(yōu)化技術(shù)點(diǎn)

    和分發(fā)的角度介紹整體方案,并且重點(diǎn)講解短視頻加速的注意事項和用戶體驗(yàn)優(yōu)化要點(diǎn)。深圳云棲大會已經(jīng)圓滿落幕,在3月29日飛天技術(shù)匯-彈性計算、網(wǎng)絡(luò)和CDN專場中,阿里云CDN高級技術(shù)專家周哲為我們帶來
    發(fā)表于 04-03 14:32

    使用rk3588npu推理模型,模型推理時間還增加了,這怎么解釋

    使用rk3588npu推理模型模型推理時間還增加了,這怎么解釋
    發(fā)表于 11-05 18:22

    基于層次注意力機(jī)制的模態(tài)圍堵情感識別模型

    識別模型。在音頻模態(tài)中加人頻率注意力機(jī)制學(xué)習(xí)頻域上下文信息,利用模態(tài)注意力機(jī)制將視頻特征與音頻特征進(jìn)行融合,依據(jù)改進(jìn)的損失函數(shù)對
    發(fā)表于 04-01 11:20 ?9次下載
    基于層次注意力機(jī)制的<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>圍堵情感識別<b class='flag-5'>模型</b>

    蛋白質(zhì)能量模型模態(tài)優(yōu)化算法綜述

    算法的基礎(chǔ),提出了一種基于二面角相似度的蛋白質(zhì)構(gòu)象模態(tài)優(yōu)化方法。首先,執(zhí)行模態(tài)探測,將 Rosetta粗粒度能量模型作為篩選高質(zhì)量新個體的
    發(fā)表于 05-18 15:33 ?1次下載

    云海計費(fèi)系統(tǒng)v4.1 視頻解析解析收費(fèi)接口專用 短視頻解析解析收費(fèi)接口專用 影視視頻電影解析計費(fèi)平臺源碼程序

    介紹:云海計費(fèi)系統(tǒng)v4.1 視頻解析 短視頻解析 影視視頻電影解析計費(fèi)平臺源碼程序云海
    發(fā)表于 01-11 16:02 ?13次下載
    云海計費(fèi)系統(tǒng)v4.1 <b class='flag-5'>視頻</b><b class='flag-5'>解析</b><b class='flag-5'>解析</b>收費(fèi)接口專用 <b class='flag-5'>短視頻</b><b class='flag-5'>解析</b><b class='flag-5'>解析</b>收費(fèi)接口專用 影視<b class='flag-5'>視頻</b>電影<b class='flag-5'>解析</b>計費(fèi)平臺源碼程序

    GTC 2023短視頻模態(tài)超大模型的場景應(yīng)用

    快手科技圍繞提高模型計算效率和可部署開展技術(shù)攻關(guān),沉淀了一套通用的混合并行訓(xùn)練、壓縮、推理整體解決方案。
    的頭像 發(fā)表于 03-23 17:56 ?2167次閱讀
    <b class='flag-5'>GTC</b> <b class='flag-5'>2023</b>:<b class='flag-5'>短視頻</b><b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>超大<b class='flag-5'>模型</b>的場景應(yīng)用

    VisCPM:邁向多語言模態(tài)模型時代

    可以大致分為兩類: 1. 在圖生文(image-to-text generation)方面,以 GPT-4 為代表的模態(tài)模型,可以面向圖像進(jìn)行開放域?qū)υ捄蜕疃?b class='flag-5'>推理; 2. 在文生圖
    的頭像 發(fā)表于 07-10 10:05 ?678次閱讀
    VisCPM:邁向多語言<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>時代

    更強(qiáng)更通用:智源「悟道3.0」Emu模態(tài)模型開源,在模態(tài)序列中「補(bǔ)全一切」

    熱度。Flamingo 具備強(qiáng)大的模態(tài)上下文少樣本學(xué)習(xí)能力。 Flamingo 走的技術(shù)路線是將大語言模型與一個預(yù)訓(xùn)練視覺編碼器結(jié)合,并插入可學(xué)習(xí)的層來捕捉跨模態(tài)依賴,其采用圖文對、
    的頭像 發(fā)表于 07-16 20:45 ?685次閱讀
    更強(qiáng)更通用:智源「悟道3.0」Emu<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>開源,在<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>序列中「補(bǔ)全一切」

    北大&amp;華為提出:模態(tài)基礎(chǔ)大模型的高效微調(diào)

    深度學(xué)習(xí)的大模型時代已經(jīng)來臨,越來越多的大規(guī)模預(yù)訓(xùn)練模型在文本、視覺和模態(tài)領(lǐng)域展示出杰出的生成和推理能力。然而大
    的頭像 發(fā)表于 11-08 16:20 ?782次閱讀
    北大&amp;華為提出:<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>基礎(chǔ)大<b class='flag-5'>模型</b>的高效微調(diào)

    探究編輯模態(tài)大語言模型的可行性

    不同于單模態(tài)模型編輯,模態(tài)模型編輯需要考慮更多的模態(tài)信息。文章出發(fā)點(diǎn)依然從單
    發(fā)表于 11-09 14:53 ?470次閱讀
    探究編輯<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大語言<b class='flag-5'>模型</b>的可行性

    模型+模態(tài)的3種實(shí)現(xiàn)方法

    我們知道,預(yù)訓(xùn)練LLM已經(jīng)取得了諸多驚人的成就, 然而其明顯的劣勢是不支持其他模態(tài)(包括圖像、語音、視頻模態(tài))的輸入和輸出,那么如何在預(yù)訓(xùn)練LLM的基礎(chǔ)上引入跨模態(tài)的信息,讓其變得更強(qiáng)
    的頭像 發(fā)表于 12-13 13:55 ?1589次閱讀
    大<b class='flag-5'>模型</b>+<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>的3種實(shí)現(xiàn)方法

    自動駕駛和模態(tài)大語言模型的發(fā)展歷程

    模態(tài)大語言模型(MLLM) 最近引起了廣泛的關(guān)注,其將 LLM 的推理能力與圖像、視頻和音頻數(shù)據(jù)相結(jié)合,通過多
    發(fā)表于 12-28 11:45 ?479次閱讀
    自動駕駛和<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大語言<b class='flag-5'>模型</b>的發(fā)展歷程

    李未可科技正式推出WAKE-AI模態(tài)AI大模型

    李未可科技模態(tài) AI 大模型正式發(fā)布,積極推進(jìn) AI 在終端的場景應(yīng)用 ? 4月18日,2024中國生成式AI大會上李未可科技正式發(fā)布為眼鏡等未來終端定向優(yōu)化等自研WAKE-AI
    發(fā)表于 04-18 17:01 ?550次閱讀
    李未可科技正式推出WAKE-AI<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>AI大<b class='flag-5'>模型</b>

    Meta發(fā)布模態(tài)LLAMA 3.2人工智能模型

    Meta Platforms近日宣布了一項重要技術(shù)突破,成功推出了模態(tài)LLAMA 3.2人工智能模型。這一創(chuàng)新模型不僅能夠深度解析文本信息
    的頭像 發(fā)表于 09-27 11:44 ?345次閱讀

    利用OpenVINO部署Qwen2模態(tài)模型

    模態(tài)模型的核心思想是將不同媒體數(shù)據(jù)(如文本、圖像、音頻和視頻等)進(jìn)行融合,通過學(xué)習(xí)不同模態(tài)之間的關(guān)聯(lián),實(shí)現(xiàn)更加智能化的信息處理。簡單來說
    的頭像 發(fā)表于 10-18 09:39 ?251次閱讀