0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI大模型之花,綻放在鴻蒙沃土

腦極體 ? 來(lái)源:腦極體 ? 作者:腦極體 ? 2023-08-03 09:10 ? 次閱讀

隨著ChatGPT日益火爆,大語(yǔ)言模型能力引發(fā)了越來(lái)越多對(duì)于智慧語(yǔ)音助手的期待。

我們相信,AI大模型能力加持下的智慧語(yǔ)音助手一定會(huì)很快落地,這個(gè)預(yù)判不僅來(lái)自對(duì)AI大模型的觀察,更來(lái)自對(duì)鴻蒙的了解。鴻蒙一定會(huì)很快升級(jí)大模型能力,放眼業(yè)界似乎也只有鴻蒙能夠在短期實(shí)現(xiàn)這一點(diǎn)。

之所以這樣說(shuō),是因?yàn)樽尨笳Z(yǔ)言模型融入終端生態(tài)不僅是個(gè)算法問(wèn)題,更需要讓AI模型能夠了解、指揮、交互操作系統(tǒng)生態(tài)中的海量能力。這不是短期內(nèi)能夠做到的,而是需要從操作系統(tǒng)與基礎(chǔ)軟件層面,不斷去發(fā)展AI,適應(yīng)AI,最終讓大語(yǔ)言模型、生成式AI代表的新AI能力,水到渠成、瓜熟蒂落般成為用戶體驗(yàn)的一部分。

而華為恰恰是最早將AI能力帶到手機(jī)中的廠商,鴻蒙系統(tǒng)從最初就基于智能技術(shù)來(lái)打造和演進(jìn)??梢哉f(shuō),AI就是鴻蒙最濃墨重彩的基因之一。這種基因會(huì)不斷生長(zhǎng),滿足更多用戶對(duì)智能體驗(yàn)的想象和期待。

8月2日,華為常務(wù)董事、終端BG CEO余承東在微博分享了一個(gè)視頻。內(nèi)容是向用戶“劇透”了HarmonyOS操作系統(tǒng)的一項(xiàng)重磅功能:讓小藝來(lái)幫助用戶生成內(nèi)容。

wKgZomTKinyATwbbAADtPtHDnYc421.jpg

從微博中展示的小藝新能力來(lái)看,其已經(jīng)具備了AI大模型與生成式AI的典型特征,創(chuàng)作的一則HDC邀請(qǐng)文辭恰當(dāng)、邏輯通順,且能夠準(zhǔn)確描繪出關(guān)鍵詞。

這也意味著,即將到來(lái)的鴻蒙4,極有可能帶來(lái)業(yè)內(nèi)首個(gè)植入系統(tǒng)的AI大模型語(yǔ)音助手。

這似乎是一段《紅樓》里的木石前盟,無(wú)更無(wú)改,注定發(fā)生。鴻蒙與AI,就花開(kāi)在這個(gè)夏天。

AI基因,鴻蒙一以貫之

早在2017年,華為就在手機(jī)端發(fā)力AI能力。此后多年當(dāng)中,AI攝影、AI智慧助手等大量AI能力逐漸成為了華為的招牌。而很多朋友沒(méi)有注意到的是,今天廣為人知的鴻蒙特性,也是建立在AI技術(shù)底座上的。

軟件解耦、新一代物聯(lián)網(wǎng)技術(shù)與AI,讓鴻蒙從誕生之初就具備了更加智能的多終端協(xié)同體驗(yàn)。它通過(guò)軟總線、分布式技術(shù),將多個(gè)物理上相互隔離的設(shè)備融合成一個(gè)“超級(jí)終端”。而“超級(jí)終端”想要發(fā)揮作用,首先要解決兩個(gè)問(wèn)題:一是操作系統(tǒng)需要理解用戶所在場(chǎng)景,二是用戶可以靈巧、便捷地完成多終端操作。這兩個(gè)目標(biāo),都需要大量依靠AI技術(shù)來(lái)實(shí)現(xiàn)。

在2019年正式發(fā)布的HarmonyOS系統(tǒng)中,就可以看到隨處可見(jiàn)的AI算法與AI體驗(yàn)。

隨后,在鴻蒙的高速進(jìn)化中,智能化能力也隨之演進(jìn)。2021年6月,華為正式發(fā)布HarmonyOS 2,帶來(lái)了統(tǒng)一控制中心、超級(jí)終端、萬(wàn)能卡片全新體驗(yàn),大量用戶開(kāi)始了解、習(xí)慣全新的鴻蒙特性。

wKgaomTKinyAIMKOAABVJ_Nzzuo423.jpg

2022年7月,HarmonyOS 3開(kāi)啟升級(jí),帶來(lái)了包括超級(jí)終端、萬(wàn)能卡片、流暢性能、隱私安全等特性在內(nèi)的六大升級(jí),智能化體驗(yàn)也得到了進(jìn)一步提升。

提起鴻蒙生態(tài)中的AI能力,就不得不提到小藝。為了管理海量設(shè)備與服務(wù),語(yǔ)音助手的中樞作用必不可少。因此,小藝基于其AI能力,就成為了鴻蒙生態(tài)所有設(shè)備的統(tǒng)一入口、服務(wù)精準(zhǔn)推薦的統(tǒng)一助手。同時(shí),通過(guò)AI彈性部署、優(yōu)選觸點(diǎn)、協(xié)同服務(wù)等技術(shù),小藝也在不斷提升自身的智能化體驗(yàn)。

由此可見(jiàn),鴻蒙生態(tài)不是突然要發(fā)力AI,而是鴻蒙就發(fā)端于AI,成長(zhǎng)于AI,并成為AI技術(shù)持續(xù)演進(jìn)的沃土。深種在鴻蒙土壤中的AI靈根,在等它的花信年華。

大模型與小藝,水到渠成的緣分

在今天,智能語(yǔ)音助手已經(jīng)無(wú)處不在,但它的體驗(yàn)卻依舊有很多問(wèn)題。比如說(shuō):

1.AI對(duì)話依舊不流暢,尤其是多輪對(duì)話、中長(zhǎng)期記憶對(duì)話體驗(yàn)不佳,從而導(dǎo)致用戶缺乏持續(xù)打開(kāi)語(yǔ)音助手,提出復(fù)雜需求的意愿,久而久之降低了語(yǔ)音助手的使用價(jià)值。

2.語(yǔ)音助手的自然語(yǔ)言理解能力不強(qiáng),邏輯推理能力不足。產(chǎn)生了用戶必須用嚴(yán)格的詞匯和讀音才能準(zhǔn)確進(jìn)行語(yǔ)音交互,日?;?、口語(yǔ)化的對(duì)話大量無(wú)法識(shí)別。這一點(diǎn)對(duì)于老人、孩子以及不了解AI語(yǔ)音交互的用戶來(lái)說(shuō)非常不友好。

3.語(yǔ)音助手僅夠喚起服務(wù),不能夠生成內(nèi)容。這就導(dǎo)致語(yǔ)音助手能夠帶給用戶的價(jià)值極大降低,難以培養(yǎng)用戶持續(xù)的語(yǔ)音交互習(xí)慣。

不難發(fā)現(xiàn),大語(yǔ)言模型與生成式AI的能力,恰好可以填補(bǔ)語(yǔ)音助手的這些缺憾。但在此前,大模型的開(kāi)發(fā)者普遍集中于AI廠商,距離消費(fèi)終端的應(yīng)用場(chǎng)景與軟硬件體系距離較遠(yuǎn)。

如何才能彌補(bǔ)這個(gè)距離呢?答案是需要一個(gè)水到渠成,瓜熟蒂落的過(guò)程。

wKgZomTKin2AZ7JcAAE9Scy02Bc982.jpg

大模型走向終端場(chǎng)景,首先需要算法本身的能力。這方面,華為已經(jīng)有了足夠的積累。7月6日,來(lái)自華為云的盤(pán)古氣象(Pangu-Weather)大模型登上《Nature》正刊。這項(xiàng)研究成功解決了現(xiàn)有AI氣象預(yù)報(bào)無(wú)法處理不均勻的 3D 氣象數(shù)據(jù)等關(guān)鍵問(wèn)題,讓其成為了首個(gè)精度超過(guò)傳統(tǒng)數(shù)值預(yù)報(bào)方法的 AI 方法,并且預(yù)測(cè)速度提升了超過(guò)10000 倍,可秒級(jí)完成對(duì)全球氣象的預(yù)測(cè)。

在多年的積累下,盤(pán)古系列大模型已經(jīng)在多個(gè)領(lǐng)域走到了全球前列。加上華為在AI開(kāi)發(fā)平臺(tái)、AI開(kāi)發(fā)框架領(lǐng)域的積累,都讓大模型與鴻蒙結(jié)合變得更加順利、周全。

而在終端側(cè),華為對(duì)AI技術(shù)進(jìn)行了豐富的探索。比如說(shuō),我們此前已經(jīng)看到了小藝的智慧搜圖功能。這一功能就結(jié)合AI多模態(tài)能力,通過(guò)對(duì)泛化語(yǔ)義的理解搭配模型小型化處理技術(shù),率先在業(yè)界實(shí)現(xiàn)了手機(jī)自然語(yǔ)言搜圖。

從模型到工具,從軟件能力到開(kāi)發(fā)者生態(tài),鴻蒙都做好了準(zhǔn)備,迎接AI大模型的到來(lái)。浪漫一點(diǎn)說(shuō),鴻蒙多年的AI耕作,可能就是在等待這個(gè)夏天。

鴻蒙4的AI約定,就在這天花開(kāi)

大語(yǔ)言模型、對(duì)話式AI的可能性,就應(yīng)該在終端語(yǔ)音助手的角色上綻放出來(lái),而其花開(kāi)處,可能只會(huì)在鴻蒙的花園里。

從推測(cè)角度來(lái)看,鴻蒙4中我們可能就會(huì)看到深度融合了大語(yǔ)言模型的小藝。雖然我們現(xiàn)在對(duì)其具體能力還不得而知,但結(jié)合大模型的能力以及鴻蒙過(guò)往的表現(xiàn),還是可以預(yù)判一下接下來(lái)會(huì)發(fā)生什么。

在這里,我們不妨一起來(lái)進(jìn)行些暢想:

1.像和真人對(duì)話一樣與小藝交流。

大模型帶來(lái)的強(qiáng)泛化,強(qiáng)魯棒特性,極大增強(qiáng)了AI的自然語(yǔ)言處理能力。說(shuō)白了,就是讓AI可以更好理解語(yǔ)言,無(wú)論是諧音、比喻、指代都不成問(wèn)題。這樣的能力毫無(wú)疑問(wèn)將是接下來(lái)鴻蒙4的升級(jí)重點(diǎn)。我們接下來(lái)將會(huì)像和真人一樣與小藝交流,甚至忽略它語(yǔ)音助手的真實(shí)身份。

2.看到,聽(tīng)到,也能服務(wù)到。

基于小藝來(lái)喚醒服務(wù)閉環(huán),是鴻蒙系統(tǒng)的一大特性。那么基于大模型帶來(lái)的多模態(tài)理解能力,有理由相信接下來(lái)小藝會(huì)加強(qiáng)服務(wù)的觸達(dá)能力。讓小藝聽(tīng)和看,都將成為鴻蒙4的服務(wù)入口。

3.把簡(jiǎn)單留給自己,把復(fù)雜留給小藝。

在大語(yǔ)音模型剛剛興起的時(shí)候,很多人都愿意故意說(shuō)一大段話,讓AI去逐層理解分析其中的意思。如果說(shuō)在當(dāng)時(shí)這只是游戲,那么在鴻蒙4中大模型的邏輯推理就會(huì)變成能力,更多更復(fù)雜的任務(wù),將會(huì)由小藝在鴻蒙的世界中來(lái)執(zhí)行。

4.不僅是找東西,更會(huì)創(chuàng)造東西。

長(zhǎng)久以來(lái),語(yǔ)音助手扮演的角色都是尋找服務(wù)和信息的入口。但在大模型時(shí)代,語(yǔ)音助手可以不止找到,而是去生成和創(chuàng)造。接下來(lái),或許我們將依靠小藝來(lái)完成辦公、生活、學(xué)習(xí)中的各種任務(wù),幫我們創(chuàng)造各種內(nèi)容。

不妨帶著這些暢想,一起去看看其中有幾個(gè)能夠在鴻蒙4當(dāng)中實(shí)現(xiàn)。鴻蒙與AI,這段木石盟注定要在這個(gè)夏天花開(kāi)結(jié)果。

答案,就藏在接下來(lái)的HDC當(dāng)中。當(dāng)然,鴻蒙與AI的更多情緣還藏在未來(lái),藏在萬(wàn)千開(kāi)發(fā)者的腦洞中,藏在無(wú)數(shù)用戶的期待里。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 華為
    +關(guān)注

    關(guān)注

    215

    文章

    34165

    瀏覽量

    249699
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29026

    瀏覽量

    266502
  • 鴻蒙
    +關(guān)注

    關(guān)注

    57

    文章

    2274

    瀏覽量

    42533
  • ChatGPT
    +關(guān)注

    關(guān)注

    28

    文章

    1519

    瀏覽量

    7027
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2162

    瀏覽量

    2032
  • AI大模型
    +關(guān)注

    關(guān)注

    0

    文章

    283

    瀏覽量

    231
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    ai模型ai框架的關(guān)系是什么

    AI模型AI框架是人工智能領(lǐng)域中兩個(gè)重要的概念,它們之間的關(guān)系密切且復(fù)雜。 AI模型的定義和特點(diǎn)
    的頭像 發(fā)表于 07-16 10:07 ?3.7w次閱讀

    ai模型和傳統(tǒng)ai的區(qū)別在哪?

    AI模型和傳統(tǒng)AI的區(qū)別主要體現(xiàn)在以下幾個(gè)方面: 數(shù)據(jù)量和訓(xùn)練規(guī)模 AI模型通常需要大量的數(shù)據(jù)進(jìn)行訓(xùn)練,以獲得更好的性能。相比之下,傳統(tǒng)
    的頭像 發(fā)表于 07-16 10:06 ?681次閱讀

    AI模型與小模型的優(yōu)缺點(diǎn)

    在人工智能(AI)的廣闊領(lǐng)域中,模型作為算法與數(shù)據(jù)之間的橋梁,扮演著至關(guān)重要的角色。根據(jù)模型的大小和復(fù)雜度,我們可以將其大致分為AI模型
    的頭像 發(fā)表于 07-10 10:39 ?1565次閱讀

    STM CUBE AI錯(cuò)誤導(dǎo)入onnx模型報(bào)錯(cuò)的原因?

    使用cube-AI分析模型時(shí)報(bào)錯(cuò),該模型是pytorch的cnn轉(zhuǎn)化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.
    發(fā)表于 05-27 07:15

    防止AI模型被黑客病毒入侵控制(原創(chuàng))聆思大模型AI開(kāi)發(fā)套件評(píng)測(cè)4

    在設(shè)計(jì)防止AI模型被黑客病毒入侵時(shí),需要考慮到復(fù)雜的加密和解密算法以及模型的實(shí)現(xiàn)細(xì)節(jié),首先需要了解模型的結(jié)構(gòu)和實(shí)現(xiàn)細(xì)節(jié)。 以下是我使用Python和TensorFlow 2.x實(shí)現(xiàn)
    發(fā)表于 03-19 11:18

    cubemx ai導(dǎo)入onnx模型后壓縮失敗了怎么解決?

    cubemx ai導(dǎo)入onnx模型后壓縮失敗。請(qǐng)問(wèn)我怎么解決
    發(fā)表于 03-19 07:58

    AI模型遠(yuǎn)程控制啟動(dòng)車(chē)輛(原創(chuàng))

    AI模型
    還沒(méi)吃飯
    發(fā)布于 :2024年03月18日 15:18:29

    使用cube-AI分析模型時(shí)報(bào)錯(cuò)的原因有哪些?

    使用cube-AI分析模型時(shí)報(bào)錯(cuò),該模型是pytorch的cnn轉(zhuǎn)化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.
    發(fā)表于 03-14 07:09

    純血鴻蒙系統(tǒng),拿什么與安卓、iOS比?

    、數(shù)碼、車(chē)載等等一系列生態(tài)閉環(huán)。 而華為鴻蒙是全棧自研底座,從AI模型、AI框架、安全隱私、集成開(kāi)發(fā)環(huán)境、設(shè)計(jì)系統(tǒng)、編程框體、編譯器、編程語(yǔ)言和文件系統(tǒng),到操作系統(tǒng)內(nèi)核。去掉了傳統(tǒng)
    發(fā)表于 02-21 21:04

    AI模型可以取代大學(xué)教育嗎?

    AI模型
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年01月02日 16:27:52

    AI模型怎么解決芯片過(guò)剩?

    AI模型
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年01月02日 15:42:05

    AI模型會(huì)不會(huì)取代電子工程師?

    AI模型
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年01月02日 15:11:43

    AI模型可以設(shè)計(jì)電路嗎?

    AI模型
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年01月02日 15:09:29

    從智能到“致用”,安第斯大模型與潘塔納爾系統(tǒng)的一次會(huì)師

    模型的“高嶺”,落地在潘塔納爾的原野上
    的頭像 發(fā)表于 11-20 09:24 ?1006次閱讀
    從智能到“致用”,安第斯大<b class='flag-5'>模型</b>與潘塔納爾系統(tǒng)的一次會(huì)師

    【KV260視覺(jué)入門(mén)套件試用體驗(yàn)】Vitis AI 構(gòu)建開(kāi)發(fā)環(huán)境,并使用inspector檢查模型

    FFT運(yùn)算(Vivado) 四、硬件加速—使用PL加速矩陣乘法運(yùn)算(Vitis HLS) 五、Vitis AI 構(gòu)建開(kāi)發(fā)環(huán)境,并使用inspector檢查模型 六、Vitis AI
    發(fā)表于 10-14 15:34