0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

高通與智譜推動(dòng)多模態(tài)生成式AI體驗(yàn)的終端側(cè)部署

高通中國(guó) ? 來(lái)源:高通中國(guó) ? 2024-11-08 09:55 ? 次閱讀

要點(diǎn)

? 高通與智譜合作將GLM-4V端側(cè)視覺(jué)大模型,面向驍龍8至尊版進(jìn)行深度適配和推理優(yōu)化,支持豐富的多模態(tài)交互方式。

? 利用驍龍8至尊版的強(qiáng)大終端側(cè)AI性能和高通AI軟件棧為模型帶來(lái)的性能優(yōu)化,GLM-4V端側(cè)視覺(jué)大模型能夠以超過(guò)70 tokens/秒的速度在終端側(cè)高速運(yùn)行。

? GLM-4V-Mini、GLM-4V-Nano端側(cè)視覺(jué)大模型和GLM-4-9B模型即將在高通AI Hub上線,搭載驍龍8至尊版的商用手機(jī)均可支持。

此前,驍龍峰會(huì)首日,智譜與高通技術(shù)公司宣布合作將GLM-4V端側(cè)視覺(jué)大模型,面向驍龍8至尊版進(jìn)行深度適配和推理優(yōu)化,支持豐富的多模態(tài)交互方式,進(jìn)一步推動(dòng)多模態(tài)生成式AI在終端側(cè)的部署和推廣,賦能更加情境化、個(gè)性化的終端側(cè)智能體驗(yàn)。

驍龍8至尊版移動(dòng)平臺(tái)搭載全新第二代高通Oryon CPU和高通Hexagon NPU,終端側(cè)AI能力再次實(shí)現(xiàn)突破,能夠賦能規(guī)模更大且更加復(fù)雜的多模態(tài)生成式AI用例在終端側(cè)高效運(yùn)行。充分利用驍龍8至尊版的強(qiáng)大終端側(cè)AI性能和高通AI軟件棧為模型帶來(lái)的性能優(yōu)化,GLM-4V端側(cè)視覺(jué)大模型能夠?qū)崿F(xiàn)令人驚嘆的處理能力,以超過(guò)70 tokens/秒的速度在終端側(cè)高速運(yùn)行。

改善情境化和定制化一直是用戶體驗(yàn)的長(zhǎng)期需求。多模態(tài)生成式AI模型能夠利用終端側(cè)豐富的傳感器數(shù)據(jù),例如文本、圖像、音頻、視頻等,打造更加直觀、無(wú)縫的智能交互體驗(yàn)。通過(guò)與驍龍8至尊版進(jìn)行深度適配和推理優(yōu)化,終端側(cè)多模態(tài)應(yīng)用ChatGLM能夠支持三種終端側(cè)交互方式:使用相機(jī)進(jìn)行實(shí)時(shí)語(yǔ)音對(duì)話、上傳照片進(jìn)行對(duì)話、上傳視頻進(jìn)行對(duì)話。豐富的多模態(tài)輸入輸出方式賦能智能助手ChatGLM實(shí)現(xiàn)了跨家庭、出行、工作和教育等多個(gè)場(chǎng)景的應(yīng)用,例如通過(guò)手機(jī)攝像頭獲取穿搭建議,利用視覺(jué)信息實(shí)現(xiàn)智能導(dǎo)航,通過(guò)車(chē)內(nèi)攝像頭識(shí)別遺留物品,拍攝畫(huà)作進(jìn)行風(fēng)格解析等。

高通技術(shù)公司高級(jí)副總裁兼技術(shù)規(guī)劃和邊緣解決方案業(yè)務(wù)總經(jīng)理馬德嘉表示:

高通與智譜共同致力于推動(dòng)生成式AI在邊緣終端上的應(yīng)用和普及,并已經(jīng)在手機(jī)、PC、汽車(chē)等領(lǐng)域展開(kāi)了緊密合作。結(jié)合高通在終端側(cè)AI領(lǐng)域的長(zhǎng)期領(lǐng)導(dǎo)力,跨不同邊緣終端的廣泛市場(chǎng)布局,以及驍龍8至尊版的AI創(chuàng)新,我們?cè)谕苿?dòng)終端側(cè)生成式AI發(fā)展方面獨(dú)具優(yōu)勢(shì)。多模態(tài)是發(fā)揮終端生成式AI潛力的重要技術(shù)發(fā)展方向,我們期待攜手智譜,探索多模態(tài)在終端側(cè)AI應(yīng)用上的更多可能。

智譜COO張帆表示:

驍龍8至尊版移動(dòng)平臺(tái)提供了卓越的AI算力,結(jié)合高通AI軟件棧推理框架的性能優(yōu)化,使得智譜的終端側(cè)大模型可以在設(shè)備端實(shí)現(xiàn)高速推理。我們相信,終端側(cè)算力平臺(tái)的性能躍遷結(jié)合大模型能力的進(jìn)步,會(huì)將生成式AI帶入新的時(shí)代。終端側(cè)運(yùn)行的生成式AI,在為用戶提供變革性體驗(yàn)的同時(shí),能更好地保護(hù)用戶隱私安全,真正讓AI變革用戶的日常生活。

GLM-4V-Mini、GLM-4V-Nano端側(cè)視覺(jué)大模型和GLM-4-9B模型即將在高通AI Hub上線,搭載驍龍8至尊版的商用手機(jī)均可支持。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 高通
    +關(guān)注

    關(guān)注

    76

    文章

    7431

    瀏覽量

    190244
  • 驍龍
    +關(guān)注

    關(guān)注

    2

    文章

    996

    瀏覽量

    36673
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2282

    瀏覽量

    2370

原文標(biāo)題:高通與智譜基于驍龍8至尊版移動(dòng)平臺(tái)合作適配優(yōu)化GLM-4V端側(cè)視覺(jué)大模型,加速多模態(tài)生成式AI體驗(yàn)的終端側(cè)部署

文章出處:【微信號(hào):Qualcomm_China,微信公眾號(hào):高通中國(guó)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    AI大模型的最新研究進(jìn)展

    。例如,在醫(yī)療領(lǐng)域,生成AI可以幫助醫(yī)生生成診斷報(bào)告、治療方案等;在教育領(lǐng)域,AI大模型可以生成
    的頭像 發(fā)表于 10-23 15:19 ?254次閱讀

    三行代碼完成生成AI部署

    OpenVINO2024.2版本跟之前版本最大的不同是OpenVINO2024.2分為兩個(gè)安裝包分別是基礎(chǔ)包與生成AI支持包,新發(fā)布的GenAI開(kāi)發(fā)包支持C++與Python語(yǔ)言接口調(diào)用,支持多種
    的頭像 發(fā)表于 08-30 16:49 ?367次閱讀
    三行代碼完成<b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b><b class='flag-5'>部署</b>

    AI發(fā)布全新模態(tài)開(kāi)源模型GLM-4-9B

    近日,智AI在人工智能領(lǐng)域取得重大突破,成功推出全新開(kāi)源模型GLM-4-9B。這款模型以其卓越的模態(tài)能力,再次刷新了業(yè)界對(duì)于大型語(yǔ)言模型的認(rèn)識(shí)。
    的頭像 發(fā)表于 06-07 09:17 ?650次閱讀

    大模型端側(cè)部署加速,都有哪些芯片可支持?

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)大模型在端側(cè)部署是指將大型神經(jīng)網(wǎng)絡(luò)模型部署在移動(dòng)終端設(shè)備上,使這些設(shè)備能夠直接運(yùn)行這些模型,從而執(zhí)行各種人工智能任務(wù),如圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等。隨著大模型
    的頭像 發(fā)表于 05-24 00:14 ?3922次閱讀

    阿里云通義大模型助力“小愛(ài)同學(xué)”強(qiáng)化模態(tài)AI生成能力

    小米的人工智能助手“小愛(ài)同學(xué)”近期與阿里云通義大模型達(dá)成戰(zhàn)略合作,共同提升其模態(tài)AI生成能力,特別是在圖片生成與理解方面。這次合作不僅將強(qiáng)
    的頭像 發(fā)表于 05-13 09:19 ?706次閱讀

    李未可科技正式推出WAKE-AI模態(tài)AI大模型

    李未可科技模態(tài) AI 大模型正式發(fā)布,積極推進(jìn) AI終端的場(chǎng)景應(yīng)用 ? 4月18日,2024中國(guó)
    發(fā)表于 04-18 17:01 ?557次閱讀
    李未可科技正式推出WAKE-<b class='flag-5'>AI</b><b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b><b class='flag-5'>AI</b>大模型

    NVIDIA數(shù)字人技術(shù)加速部署生成AI驅(qū)動(dòng)的游戲角色

    NVIDIA 在 GDC 2024 大會(huì)上宣布,Inworld AI 等領(lǐng)先的 AI 應(yīng)用程序開(kāi)發(fā)者,正在使用 NVIDIA 數(shù)字人技術(shù)加速部署生成
    的頭像 發(fā)表于 04-09 10:08 ?610次閱讀
    NVIDIA數(shù)字人技術(shù)加速<b class='flag-5'>部署</b><b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>驅(qū)動(dòng)的游戲角色

    NVIDIA Edify模態(tài)架構(gòu)升級(jí),引領(lǐng)視覺(jué)生成AI新紀(jì)元

    NVIDIA近日宣布,其用于視覺(jué)生成AI模態(tài)架構(gòu)Edify迎來(lái)重大更新,為開(kāi)發(fā)者和視覺(jué)內(nèi)容提供商帶來(lái)前所未有的新功能。其中,3D資產(chǎn)
    的頭像 發(fā)表于 03-27 10:22 ?387次閱讀

    NVIDIA Edify為視覺(jué)內(nèi)容提供商帶來(lái)3D生成AI和全新圖像控件

    用于視覺(jué)生成 AI模態(tài)架構(gòu) NVIDIA Edify 正在邁入全新維度。
    的頭像 發(fā)表于 03-26 09:49 ?642次閱讀

    生成AI加速向終端側(cè)演進(jìn),NPU、異構(gòu)計(jì)算提供強(qiáng)大算力支持

    的400億美元,增長(zhǎng)至2032年的1.3萬(wàn)億美元,年復(fù)合增速達(dá)到42%。 ? 生成AI終端快速演進(jìn) ? 當(dāng)前大部分生成
    的頭像 發(fā)表于 03-16 00:16 ?2800次閱讀

    MWC2024:通推出全新AI Hub及前沿模態(tài)大模型

    2024年世界移動(dòng)通信大會(huì)(MWC)上,通再次展現(xiàn)其技術(shù)領(lǐng)導(dǎo)力,通過(guò)發(fā)布全新的AI Hub和展示前沿的模態(tài)大模型技術(shù),
    的頭像 發(fā)表于 02-26 16:59 ?1182次閱讀

    通持續(xù)推動(dòng)終端側(cè)生成AI變革,推出AI Hub賦能開(kāi)發(fā)者

    通現(xiàn)賦能終端側(cè)AI在下一代PC、智能手機(jī)、軟件定義汽車(chē)、XR設(shè)備和物聯(lián)網(wǎng)等領(lǐng)域規(guī)?;逃?,讓智能計(jì)算無(wú)處不在。
    的頭像 發(fā)表于 02-26 16:46 ?584次閱讀

    安霸發(fā)布全新N1系列生成AI芯片

    安霸在CES 2024上發(fā)布了全新的N1系列生成AI芯片,這是一款專(zhuān)門(mén)為前端設(shè)備設(shè)計(jì)的芯片,支持本地運(yùn)行大型語(yǔ)言模型(LLM)應(yīng)用。其單顆SoC能夠支持1至340億參數(shù)的
    的頭像 發(fā)表于 01-09 15:32 ?1283次閱讀

    安霸發(fā)布N1系列生成AI芯片支持前端設(shè)備運(yùn)行本地LLM應(yīng)用

    單顆 SoC 支持 1 至 340 億參數(shù)的模態(tài)大模型(Multi-Modal LLM)推理,實(shí)現(xiàn)前端低功耗生成 AI
    的頭像 發(fā)表于 01-09 15:19 ?895次閱讀

    邊緣側(cè)部署大模型優(yōu)勢(shì)!模型量化解決邊緣設(shè)備資源限制問(wèn)題

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)大模型的邊緣部署是將大模型部署在邊緣設(shè)備上,以實(shí)現(xiàn)更快速、更低延遲的計(jì)算和推理。邊緣設(shè)備可以是各種終端設(shè)備,如智能手機(jī)、平板電腦、智能家居設(shè)備等。通過(guò)將大模型部署
    的頭像 發(fā)表于 01-05 00:06 ?3284次閱讀