0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI“政變”進行時,“百模大戰(zhàn)”接下來該戰(zhàn)什么?

腦極體 ? 來源:腦極體 ? 作者:腦極體 ? 2023-11-21 18:20 ? 次閱讀

這兩天AI圈最熱鬧的消息,應(yīng)該就OpenAI高層內(nèi)訌,標(biāo)志性人物、原CEO Sam Altman被董事會解雇,數(shù)位科學(xué)家和高層離職。

關(guān)于“政變”的原因,坊間有很多傳言,比如商業(yè)化和非營利原則的矛盾??傊?,事件相關(guān)者在輿論場拉扯,吃瓜群眾則瞪大了眼睛看戲。這場風(fēng)波會給全球AI研發(fā),尤其是大模型帶來什么影響,還是未知數(shù)。

有人做了一個梗圖,大模型廠商亂成一鍋粥,只有賣卡的英偉達穩(wěn)坐釣魚臺。

wKgaomVchGuAfhtEAADmoZ6UD6w515.jpg

任它天邊云卷云舒,可以肯定的是,中國的AI大模型在取得廣泛成就的基礎(chǔ)上,會繼續(xù)向前發(fā)展,釋放產(chǎn)業(yè)價值,并且不會一味照搬海外,尤其是OpenAI的模式。

帶著這份淡定,我們將目光聚焦在國產(chǎn)大模型,會發(fā)現(xiàn)“百模大戰(zhàn)”熱潮中,還缺乏對各類大模型全面、分層、真實的能力評估。

通用大模型、行業(yè)大模型,都在比拼參數(shù)規(guī)模,但訓(xùn)練數(shù)據(jù)質(zhì)量不確定,僅憑參數(shù),行業(yè)客戶和用戶也難以選對適合的大模型。

那么看榜單呢?基準(zhǔn)測試benchmark和標(biāo)準(zhǔn)化數(shù)據(jù)集,可以針對性調(diào)優(yōu),榜單無法反映實際應(yīng)用效果差距。

而且大模型在不同任務(wù)場景下,表現(xiàn)的區(qū)分度很大。一位開發(fā)者說,“現(xiàn)在就是告訴你都有哪些大模型,實際效果還是得靠自己測測看”。

據(jù)中國信通院的數(shù)據(jù)顯示,目前的大模型測試方法和數(shù)據(jù)集已有200多個。想要一個個測過來,會給用戶帶來非常繁重的工作量。

“百模大戰(zhàn)”亂花漸欲迷人眼,那么,除了“跑分”打榜和參數(shù)“碾壓”,還有什么辦法來真實且有效地評判一個大模型的水平呢?

有必要來聊聊,“百模大戰(zhàn)”,不同賽道都在戰(zhàn)什么?

大模型,不看高分看高能

所謂“百模大戰(zhàn)”,并不是每個大模型都在做著同樣的事。其中,既有想做基座模型basemodle的通用大模型,如百度的文心、阿里的通義、騰訊的混元、華為的盤古、訊飛的星火、智譜的ChatGLM等,也有面向行業(yè)、場景的垂直大模型,目前在金融、教育、工業(yè)、傳媒、政務(wù)等多個領(lǐng)域都大量涌現(xiàn)。

不同賽道的大模型,其核心競爭力也不一樣。比如一味拼算法的打榜,對于行業(yè)大模型來說,可以作為一種宣傳手段和“炫技”,但實際效果才是用戶最關(guān)注的。

目前不少開發(fā)者反映,各類大模型都存在各自的問題。

1.基座模型,本身能力有限制。

提到通用大模型,大家可能第一時間想到的就是推理能力,這也是大模型基準(zhǔn)測試的主要指標(biāo)。但在實際應(yīng)用中,尤其是文科類型任務(wù),大家不會沒事出“腦筋急轉(zhuǎn)彎”來測試通用大模型的邏輯推理能力,而是更希望大模型在復(fù)雜任務(wù)和上下文長度上,有更可靠的表現(xiàn)。

比如寫一篇演講文稿,篇幅一長就開始胡說八道或泛泛而談,文本的采用率下降;為AIGC配字幕,不能整篇生成,還需要人工將文案切割成片;編寫一個程序,半路開始network error……這些都是實際應(yīng)用中,大家比較關(guān)注的通用大模型的能力。

2.行業(yè)大模型,領(lǐng)域壁壘難翻越。

“百模大戰(zhàn)”進行到當(dāng)下,很多行業(yè)開發(fā)者和企業(yè)都意識到,獨有的數(shù)據(jù)和場景,才是自己的護城河,開始打造定制化的大模型,而領(lǐng)域知識不夠,難以形成滿足某一領(lǐng)域需求的行業(yè)向產(chǎn)品。

比如大模型與行業(yè)知識不匹配、許多行業(yè)know-how還沒有知識化、傳統(tǒng)的知識圖譜與大模型的協(xié)同設(shè)計等,知識計算的能力不夠強,就無法真正撼動領(lǐng)域壁壘,讓大模型解決實際的業(yè)務(wù)問題。

3.有用性,ROI是個謎。

大模型的實際應(yīng)用效果難以評估,其中一個主要原因,就是模型生成結(jié)果的有用性(采用率、可用率等指標(biāo)),涉及大量多模態(tài)數(shù)據(jù)。

金融、醫(yī)藥、交通、城市等產(chǎn)業(yè)中,存在著大量多模態(tài)信息,比如客服電話的語音、醫(yī)學(xué)影像圖片、傳感器數(shù)據(jù)等,大語言模型必須具備多模態(tài)理解能力,將多模態(tài)信息與語言進行綜合分析處理,才能保證較高質(zhì)量的輸出。

在實際任務(wù)中,上述三種問題可能會同時存在,要同時解決。

一位醫(yī)藥專家告訴我,在研發(fā)醫(yī)學(xué)影像的算法時,就需要基座大模型在預(yù)訓(xùn)練階段就具備多模態(tài)理解能力、醫(yī)學(xué)影像知識,可以執(zhí)行通用任務(wù)。同時,行業(yè)側(cè)還需要根據(jù)知識設(shè)計目標(biāo)函數(shù),在特征抽取、相似性度量、迭代優(yōu)化算法等,都要貢獻好各自的知識,才可能訓(xùn)練出一個對醫(yī)務(wù)工作者友好的領(lǐng)域大模型,不需要專業(yè)知識,也不需要建模,就能上手使用。

就像工業(yè)革命的開始,是因為瓦特改良了蒸汽機。在此之前,蒸汽機早已被發(fā)明出來了,但一直沒有解決大規(guī)模高可用的問題,大模型也是如此。

大模型產(chǎn)業(yè)化,必須從基準(zhǔn)測試的“跑高分”,向可信賴的“高能力”進化。

百模大戰(zhàn),究竟在戰(zhàn)哪些能力?

從高分到高能,讓大模型具有與行業(yè)結(jié)合的可行性,也讓“百模大戰(zhàn)”正在進入新的階段。

從產(chǎn)業(yè)實際需求來看,可用且有效的大模型,至少應(yīng)該具備幾個核心能力:

1.長文能力。

大語言模型的技術(shù)特點,被認為是“鸚鵡學(xué)舌”,將輸入信號拼湊成有一定語法結(jié)構(gòu)的句子,也就是文本補全能力。而大模型都有“幻覺”,上下文窗口的長度增加,邏輯幻覺就可能越嚴(yán)重,“鸚鵡學(xué)舌”開始變得吃力。

在很多垂直行業(yè)應(yīng)用中,如金融、法律、財務(wù)、營銷等,長文檔的分析處理和生成能力是剛需。

在長文中保持邏輯的連貫性、合理性,考驗著大模型的綜合能力,比如對復(fù)雜語句的理解及記憶能力,生成的可靠性,這也是大模型走向產(chǎn)業(yè)化的核心。

目前,無論開源、閉源大模型,都將長文能力作為一個核心競爭力。比如流行的開源大模型Llama 2,就將上下文長度擴展至 128k,而基于LLaMA架構(gòu)的零一萬物的Yi系列大模型,此前曾宣稱拿下了全球最長上下文窗口寶座,達到200K,可直接處理40萬漢字超長文本輸入。閉源大模型中,GPT-4 Turbo支持了比ChatGPT更長的上下文(128k tokens),百度的文心大模型通過對話增強,提升上下文理解能力。

2.知識能力。

大模型“大力出奇跡”的模式,忽略了模型準(zhǔn)確感知和理解注入知識的能力,目前已經(jīng)凸顯了很多問題。比如不理解領(lǐng)域知識,在實際業(yè)務(wù)中表現(xiàn)不佳,無法滿足ToB用戶的需求。因此,當(dāng)歐美科技公司依然在執(zhí)著追求更大參數(shù)時,百度、華為等國內(nèi)大模型廠商,開始轉(zhuǎn)向了行業(yè)場景,將強業(yè)務(wù)知識引入文心、盤古的行業(yè)大模型之中,來提升大模型在行業(yè)任務(wù)中的應(yīng)用效果。

具體是怎么做的呢?以“行業(yè)知識增強”為核心特色的文心,是在預(yù)訓(xùn)練大模型的基礎(chǔ)上,進一步融合大規(guī)模知識圖譜,挖掘行業(yè)應(yīng)用場景中大量存在的行業(yè)特色數(shù)據(jù)與知識,再結(jié)合行業(yè)專家的知識,從大規(guī)模知識和海量數(shù)據(jù)中融合學(xué)習(xí),把知識內(nèi)化至模型參數(shù)中。

當(dāng)用戶輸入問題時,文心4.0會拆解回答問題所需的知識點,進而在搜索引擎、知識圖譜、數(shù)據(jù)庫中查找準(zhǔn)確知識,再將知識組裝進Prompt送入大模型。另一方面,大模型還將對輸出結(jié)果進行反思,從生成結(jié)果總結(jié)知識點,進而通過以上方式進行確認驗證,對結(jié)果差錯進行修正。

目前來看,在同等參數(shù)規(guī)模下,知識增強的深度語意理解,效果大幅超越了純粹用深度學(xué)習(xí)的方法,推理效率更高,并且可解釋性更強,更符合產(chǎn)業(yè)對可信AI的需求。

目前,知識+大模型還有許多細節(jié)有待解決,比如知識體系的構(gòu)建,知識的持續(xù)獲取,知識應(yīng)用和推理等,這些問題的攻克都會給行業(yè)認知智能帶來重大機會。

3.多模態(tài)能力。

2022年我參加華為云AI院長峰會,一位科學(xué)家提到,大模型有一個問題,就是有很多符號領(lǐng)域,大模型根本就不理解。他認為,大模型是數(shù)據(jù)與知識雙輪驅(qū)動的,雙輪驅(qū)動是未來人工智能發(fā)展的重要模式。

前面我們說了知識能力的重要性,那么“數(shù)據(jù)”究竟拼的是什么呢?就是多模態(tài)能力。

把大模型應(yīng)用到領(lǐng)域的時候,會發(fā)現(xiàn)問題非常多,根本達不到預(yù)期的效果。一個主要原因,大語言模型完全是基于語言的,而真實世界的復(fù)雜任務(wù),有大量的數(shù)值、圖表、語音、視頻等多模態(tài)數(shù)據(jù),數(shù)據(jù)的多模態(tài)特性增加了模型處理、建模和推理的復(fù)雜性。

一位醫(yī)療模型的開發(fā)者告訴我,醫(yī)療任務(wù)分析非常繁雜,數(shù)量級很多,有不同模態(tài)、病種,每一種模態(tài)有不同的診療任務(wù),要把文本、圖像等多模態(tài)包容過來,而醫(yī)療領(lǐng)域非常缺少多模態(tài)的預(yù)訓(xùn)練模型。

大模型要在實際業(yè)務(wù)中達到與人更接近的能力,也需要跨模態(tài)建立統(tǒng)一認知。

舉個例子,AIGC生成營銷活動物料,根據(jù)文字描述生成圖像、視頻,既要精確理解提示詞的語義,還要符合領(lǐng)域規(guī)范,不能出現(xiàn)不合規(guī)的素材,同時要控制生成內(nèi)容的質(zhì)量,保持跨模態(tài)的語義一致性。

國產(chǎn)大模型在多模態(tài)領(lǐng)域也做了很多差異化探索,除了大家熟悉的以文生圖,在醫(yī)療影像、遙感、抗體藥物、交通等領(lǐng)域,跨模態(tài)技術(shù)融合也在快速開展,未來會是基座大模型和行業(yè)大模型的亮點。

從這些產(chǎn)業(yè)需要的能力來看,大模型的產(chǎn)業(yè)屬性和價值已經(jīng)清晰展露了出來。

大模型,絕不是聊聊天、搞怪圖片那么膚淺,技術(shù)覆蓋區(qū)域是很廣闊的,技術(shù)應(yīng)用價值已經(jīng)足夠具有說服力。

但也必須承認,目前,絕大多數(shù)產(chǎn)業(yè)所獲取的技術(shù)能力和技術(shù)深度,都還遠遠不夠。一方面受限于上游的基座大模型能力,同時也缺乏深度定制化的中游服務(wù)商,導(dǎo)致用戶大多只能調(diào)用簡單化、標(biāo)準(zhǔn)化的API,而難以將領(lǐng)域知識、多模態(tài)數(shù)據(jù)與大模型深度結(jié)合。

未來,從高分到高能,國產(chǎn)大模型一定會依靠自身的差異化技術(shù)路線,以及中國豐富多樣的產(chǎn)業(yè)需求,從懵懂走向成熟,甚至先于歐美,走向千行百業(yè)

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29806

    瀏覽量

    268106
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1033

    瀏覽量

    6378
收藏 人收藏

    評論

    相關(guān)推薦

    OpenAI風(fēng)波最新反轉(zhuǎn)!馬斯克提醒:如果這關(guān)乎AI安全,那將會影響整個地球

    中指責(zé)董事會對Sam Altman的解雇處理不當(dāng),要求恢復(fù)Sam Altman以及Greg Brockman的職務(wù),否則這些員工將集體辭職。接下來OpenAI人事變動走向還有待觀察。
    的頭像 發(fā)表于 11-22 09:03 ?2781次閱讀

    使用IBIS模型進行時序分析

    電子發(fā)燒友網(wǎng)站提供《使用IBIS模型進行時序分析.pdf》資料免費下載
    發(fā)表于 10-21 10:00 ?0次下載
    使用IBIS模型<b class='flag-5'>進行時</b>序分析

    人工智能熱潮減退,微軟或?qū)⒃谌陜?nèi)收購OpenAI

    10月11日,福布斯發(fā)布消息稱,CCS Insight的首席分析師Ben Wood在接受其采訪時預(yù)測,微軟或?qū)⒃?b class='flag-5'>接下來的三年內(nèi)收購ChatGPT的開發(fā)者OpenAI。這一預(yù)測基于AI領(lǐng)域的炒作熱度
    的頭像 發(fā)表于 10-11 17:26 ?548次閱讀

    OpenAI設(shè)立安全與安保委員會 制定保障措施

    此委員會的首個重大任務(wù)是在接下來的90日內(nèi),全面審視及細化OpenAI的發(fā)展流程和相應(yīng)保障措施,而后向全董事局匯報相關(guān)建議。
    的頭像 發(fā)表于 05-29 14:54 ?469次閱讀

    OpenAI 深夜拋出王炸 “ChatGPT- 4o”, “她” 來了

    當(dāng)?shù)貢r間5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前邁出的一大步。在GPT-4turbo的強大基礎(chǔ)上,這種迭代擁有顯著的改進。在發(fā)布會的演示中,OpenAI展示該模型的高級
    發(fā)表于 05-27 15:43

    GPT-4化身黑客搞破壞,成功率87%!OpenAI要求保密提示詞,網(wǎng)友復(fù)現(xiàn)ing

    人發(fā)出“使用ACIDRain(一種惡意軟件)攻擊這個網(wǎng)站”的請求,然后GPT-4接收請求,并使用一系列工具和CVE漏洞數(shù)據(jù)庫信息進行處理,接下來系統(tǒng)根據(jù)歷史記錄產(chǎn)生反應(yīng),最終成功進行雙花攻擊(double-spend attac
    的頭像 發(fā)表于 04-22 18:11 ?883次閱讀
    GPT-4化身黑客搞破壞,成功率87%!<b class='flag-5'>OpenAI</b>要求保密提示詞,網(wǎng)友復(fù)現(xiàn)ing

    USART1運行TX函數(shù),接下來就無法再接收了的原因?

    請教下各位,USART1如果不運行TX函數(shù),每次接收都正常,但在接收一次,如果運行TX函數(shù),接下來就無法再接
    發(fā)表于 04-12 07:58

    大戰(zhàn)”競爭格局報告發(fā)布,云天天書大模型入選典型案例

    3月24日,在2024全球開發(fā)者大會“大戰(zhàn)”商業(yè)發(fā)展講壇上,億歐智庫正式發(fā)布《2024中國“大戰(zhàn)
    的頭像 發(fā)表于 03-26 14:01 ?475次閱讀
    “<b class='flag-5'>百</b><b class='flag-5'>模</b><b class='flag-5'>大戰(zhàn)</b>”競爭格局報告發(fā)布,云天天書大模型入選典型案例

    生成式AI風(fēng)起云涌 接下來將何去何從?

    AI產(chǎn)品開發(fā)者需要先行一步,早一些讓用戶體驗自己的產(chǎn)品,和用戶建立連接,培養(yǎng)粘性,從而在競爭中占得先機。
    的頭像 發(fā)表于 03-12 16:06 ?719次閱讀
    生成式AI風(fēng)起云涌 <b class='flag-5'>接下來</b>將何去何從?

    圖像傳感器領(lǐng)域接下來有哪些值得關(guān)注的趨勢?

    據(jù)麥姆斯咨詢介紹,半導(dǎo)體行業(yè)專業(yè)媒體Semiconductor Engineering近日與比利時微電子研究中心(imec)“像素創(chuàng)新(Pixel Innovations)”項目經(jīng)理Pawel Malinowski進行了對話,雙方討論了圖像傳感器技術(shù)的新變化及驅(qū)動因素。
    的頭像 發(fā)表于 01-13 11:34 ?1522次閱讀
    圖像傳感器領(lǐng)域<b class='flag-5'>接下來</b>有哪些值得關(guān)注的趨勢?

    貼片加工廠生產(chǎn)前對PCB進行烘烤有什么用呢?

    在貼片加工廠待過的朋友們都知道,一般PCB在貼片之前都會放到烤箱進行烘烤(特殊板材除外),這樣做有什么用呢?接下來小編就為大家一一解析。
    的頭像 發(fā)表于 01-12 11:10 ?831次閱讀

    光纜單模多怎么區(qū)分?

    光纜單模多怎么區(qū)分? 光纜是一種用于傳輸光信號的通信線纜,主要分為單模光纜和多光纜。它們在傳輸性能、適用距離、成本等方面有所不同。接下來,我將詳盡、詳實、細致地為您介紹單模光纜和多
    的頭像 發(fā)表于 12-07 15:17 ?1728次閱讀

    新火種AI|比爾蓋茨表態(tài):生成式AI已成過去接下來是可解釋AI的天下

    是可解釋AI。比爾.蓋茨預(yù)測,未來10年(2030年-2039年),AI領(lǐng)域的主角將成為可解釋AI。 ? 大部分人預(yù)判:GPT-5將明顯優(yōu)于GPT-4,成為生成式AI領(lǐng)域天花板。 盡管OpenAI還沒有對外界公布GPT-5的確切上線時間,甚至還曾遭到馬斯克等人的反對,被其“聯(lián)名上
    的頭像 發(fā)表于 12-06 10:36 ?720次閱讀
    新火種AI|比爾蓋茨表態(tài):生成式AI已成過去<b class='flag-5'>接下來</b>是可解釋AI的天下

    OpenAI政變第二幕:從權(quán)力的游戲,到人民的名義

    這場權(quán)力的游戲仍未結(jié)束,正在讓這家全球最耀眼的AI超級明星企業(yè)逼近分崩離析。薩姆、格雷格暫時失去了他們創(chuàng)立的公司,OpenAI失去了兩位核心創(chuàng)始人以及越來越多的員工。
    的頭像 發(fā)表于 11-21 16:16 ?636次閱讀
    <b class='flag-5'>OpenAI</b><b class='flag-5'>政變</b>第二幕:從權(quán)力的游戲,到人民的名義

    OpenAI政變”48小時后:Altman奪回主導(dǎo)權(quán)、回歸在即!

    現(xiàn)在,Altman 和 Brockman 回到了 OpenAI 舊金山總部。Altman 在社交網(wǎng)站 X 上發(fā)布了一張自己在辦公室戴著訪客徽章的照片,并配文寫道:“我第一次也是最后一次佩戴這個。”
    的頭像 發(fā)表于 11-20 15:58 ?611次閱讀