0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

開源大模型到底開源什么?源碼在哪呢?

OSC開源社區(qū) ? 來源:睡前機(jī)器學(xué)習(xí) ? 2023-04-11 09:07 ? 次閱讀

ChatGPT出來以后很多人都在說開源,認(rèn)為只要OpenAI大發(fā)善心或者哪個(gè)高超的黑客黑進(jìn)服務(wù)器,把ChatGPT的源碼發(fā)出來放到網(wǎng)上,那么到不了第二天天亮,全世界就會(huì)人手一個(gè)ChatGPT。

這是一種常見的誤解。

開源字面意思是公開源代碼,過去我們通常是指公開某款軟件項(xiàng)目的源代碼。知名的譬如說Linux操作系統(tǒng),準(zhǔn)確來說是操作系統(tǒng)內(nèi)核,我們拿到Linux的源碼,只要搭建好相應(yīng)的編譯環(huán)境,就能在本地編譯一套一模一樣的操作系統(tǒng)內(nèi)核。

當(dāng)然,實(shí)際會(huì)復(fù)雜一點(diǎn),同一套源碼用不同方法編譯,運(yùn)行效率、資源占用等都可能不同。這里姑且不再細(xì)摳,總之,過去軟件開源給我們的印象就是,甭管什么閬苑仙葩,只要一開源就能人手一份,而且很快還會(huì)有各種換皮魔改,同人逼死官方。往好了說,這叫開源帶來澎湃力量。

但大語(yǔ)言模型的“開源”完全不是這么一回事。先別管OpenAI現(xiàn)在名叫鈕鈷祿氏·CloseAI,就算哪天良心發(fā)現(xiàn),真的要找回自己做一個(gè)名副其實(shí)的OpenAI,洗心革面把GPT-4給開源了。先別著急著高興,對(duì)于99%的人來說,GPT-4的源碼毫無意義,對(duì)于剩下的1%里的99%,可能也就蹭一些研究論文。只有最后剩下的1%里的1%才會(huì)有真正幫助,不過,也只是有幫助,但不算很大。

為什么?原因不復(fù)雜,因?yàn)榇笳Z(yǔ)言模型的所謂開源,實(shí)際上是有三個(gè)對(duì)象。源碼只是其中之一。我不是針對(duì)誰(shuí),在座各位即使拿到了源碼,剩下能做的也就只有點(diǎn)贊鼓掌。

人工智能三要素,算法、算力和數(shù)據(jù)。也有人管最后叫算據(jù),不太確定這倆詞是不是互通??傊搅肆Υ箫w磚的大語(yǔ)言模型時(shí)代,這三要素就成了算法、高算力和大數(shù)據(jù)。只有同時(shí)滿足這三大要素,你才有可能最終得到一款和ChatGPT類似效果拔群的模型。

那么,源碼在哪呢?在算法。算法的核心部分主要包括有模型結(jié)構(gòu)和訓(xùn)練方法,這兩部分都有對(duì)應(yīng)的源碼。哪天OpenAI公開源碼,我們應(yīng)該就能看到的也就是模型結(jié)構(gòu)和訓(xùn)練方法兩部分。

當(dāng)然,這只是核心部分。一款人工智能產(chǎn)品,尤其是大型人工智能產(chǎn)品,還會(huì)有許多工程問題需要解決,除了核心還需要其它配套部件。別看到“配套部件”就覺得沒什么。之前同樣是OpenAI,配套部件大概占九成。所以,別管它Open不Open吧,我們能看到的都是冰山一角。

拿到源碼之后,真正的挑戰(zhàn)才剛開始。接下來才是這個(gè)世界絕大多數(shù)人、研究機(jī)構(gòu)和企業(yè)注定無法邁過的門檻:高算力和大數(shù)據(jù)。

高算力已經(jīng)說了很多了,門檻很高,但從全世界范圍來說,總歸有一些企業(yè)擠擠還是有的。不過,大數(shù)據(jù)就未必了。

數(shù)據(jù)非常重要。無論是人工智能時(shí)代,還是人工智障時(shí)代,擴(kuò)大數(shù)據(jù)的規(guī)模、提高數(shù)據(jù)的質(zhì)量,通常都能顯著提高模型的最終表現(xiàn)。以前我們經(jīng)常自嘲,說人工智能就是投入多少人工就產(chǎn)出多少智能,人工做什么呢?就是標(biāo)數(shù)據(jù)。

千萬不要小看了標(biāo)數(shù)據(jù),這玩意費(fèi)人、費(fèi)錢,關(guān)鍵還費(fèi)時(shí)間。搞一個(gè)大模型已經(jīng)十分不易,搞一個(gè)能喂飽大模型的數(shù)據(jù)集更為困難。OpenAI這種光啟動(dòng)資金就10億刀的富二代企業(yè),標(biāo)數(shù)據(jù)照樣也得想辦法省錢,后來還出了一條新聞。

這里插個(gè)的陰謀論,ChatGPT的免費(fèi)用,換個(gè)角度看沒準(zhǔn)就成了我們給OpenAI免費(fèi)標(biāo)數(shù)據(jù)。有沒有依據(jù)?有。OpenAI官方明著說了,你和ChatGPT的交互數(shù)據(jù)可能用于模型訓(xùn)練,要知道那可是一億多的用戶,那得生產(chǎn)多少高質(zhì)量的人工標(biāo)注數(shù)據(jù)。技術(shù)領(lǐng)先優(yōu)勢(shì)可以追趕,數(shù)據(jù)領(lǐng)先優(yōu)勢(shì)則就未必了。

好了,假設(shè)你七星聚頂,三大要素都湊齊了,接下來是不是就能煉出ChatGPT了呢?前面我們說過,“你才有可能最終得到一款和ChatGPT類似效果拔群的模型”。為什么是有可能?因?yàn)槟P陀?xùn)練和編譯源碼不太一樣,里面還包含一些難以言說的玄學(xué)因素。我一直對(duì)Bard的表現(xiàn)耿耿于懷,百思不得其解,我懷疑谷歌可能就是栽倒在玄學(xué)因素上面。

那么,現(xiàn)在很多研究者在呼吁的開源,到底是要開源什么呢?開源模型,具體來說,是開源訓(xùn)練好的模型參數(shù)。模型參數(shù)拿到手,基本上就能完整復(fù)現(xiàn)能力了。當(dāng)然,這還是對(duì)于大企業(yè)、大機(jī)構(gòu)來說,運(yùn)行大語(yǔ)言模型雖然消耗的算力遠(yuǎn)不如訓(xùn)練,但也不是單卡就能負(fù)擔(dān)的。

何況,行話說的“單卡運(yùn)行”,通常是指60G顯存往上。哥們那些打游戲的所謂高端顯卡,在這還沒夠上起步價(jià)。

最后多說兩句開源。開源很重要,人工智能能有今天的進(jìn)步,開源功不可沒。人工智能的研究成果大概有幾種,首先就是論文。學(xué)術(shù)論文是要錢的,但是在人工智能領(lǐng)域,很多作者都免費(fèi)公開了論文。當(dāng)然,有些是論文,有些是名叫論文的文宣資料,通常倒數(shù)第三或者第四部分會(huì)放一些表格,表?yè)P(yáng)一下這次搞的模型在什么什么任務(wù)上面效果拔群,洋氣一點(diǎn),叫SOTA。

然后是源碼。源碼不是必選項(xiàng),有些研究者只發(fā)論文不發(fā)源碼,有一種原因是舍不得,覺得辛辛苦苦憋出來的成果不愿意簡(jiǎn)簡(jiǎn)單單就交給別人,當(dāng)然也有可能覺得寫得太爛丟不起人,或者在論文里吹太過了,擔(dān)心別人復(fù)效不了質(zhì)疑。

還有就是模型。前面說過,模型這玩意距離能力復(fù)現(xiàn)就一步之遙,有很多人愛開源模型,也有很多人不愛開源模型,原因和上面差不多,還有一種是大公司大機(jī)構(gòu)才敢用,官方辭令很多,譬如“出于社會(huì)責(zé)任考慮”,或者“安全倫理存在巨大風(fēng)險(xiǎn)”等等。

谷歌在21年就搞出了大語(yǔ)言模型LaMDA,說技術(shù)過于先進(jìn)不便展示,害得我對(duì)著論文流了好多口水。現(xiàn)在出來個(gè)Bard,還不如不展示。

這里為咱們的中文開源大語(yǔ)言模型打個(gè)Call吧,能講中文還開源的大語(yǔ)言模型真的不多,清華放出來的ChatGLM-6B應(yīng)該是佼佼者,而是真·單卡就能運(yùn)行。這里說的是消費(fèi)級(jí)顯卡。

最后就是開源數(shù)據(jù)集了,這項(xiàng)工作很重要,但也很容易被圈外忽視。現(xiàn)在中文大語(yǔ)言模型缺的東西很多,抱怨的也很多,還有一票人天天平替這個(gè)平替那個(gè),實(shí)在不知道怎么想。不過,講屁話沒有用,已經(jīng)有一些開源項(xiàng)目開始做起來,這都是星星之火。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Linux操作系統(tǒng)
    +關(guān)注

    關(guān)注

    0

    文章

    54

    瀏覽量

    10984
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    990

    瀏覽量

    6261
  • ChatGPT
    +關(guān)注

    關(guān)注

    28

    文章

    1517

    瀏覽量

    6961

原文標(biāo)題:開源大模型到底開源什么?

文章出處:【微信號(hào):OSC開源社區(qū),微信公眾號(hào):OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    Matepad pro12.2 已上市半個(gè)月,但是還沒有在開源網(wǎng)站看到該項(xiàng)目的開源信息,違背開源精神

    任何該項(xiàng)目的開源計(jì)劃,違背開源精神 按照開源社區(qū) licsence和公共庫(kù)開源licsence要求,對(duì)應(yīng)的項(xiàng)目上市后都需要盡快開源并及時(shí)公布
    發(fā)表于 08-27 17:25

    摩爾線程正式開源音頻理解大模型MooER

    近日,國(guó)內(nèi)領(lǐng)先的GPU創(chuàng)新企業(yè)摩爾線程宣布了一項(xiàng)重大技術(shù)突破——正式開源其自主研發(fā)的音頻理解大模型MooER(摩耳)。這一舉動(dòng)標(biāo)志著我國(guó)在音頻處理與理解領(lǐng)域邁出了堅(jiān)實(shí)的一步,特別是在基于國(guó)產(chǎn)硬件的AI模型研發(fā)上取得了顯著成就。
    的頭像 發(fā)表于 08-27 15:24 ?343次閱讀

    浙大博導(dǎo)開源飛控planner源碼

    浙大博導(dǎo)開源飛控planner源碼
    發(fā)表于 06-12 11:43 ?2次下載

    通義千問開源千億級(jí)參數(shù)模型

    通義千問近日開源了其首個(gè)千億級(jí)參數(shù)模型Qwen1.5-110B,這是其全系列中首個(gè)達(dá)到千億級(jí)別的開源模型。Qwen1.5-110B模型繼承了
    的頭像 發(fā)表于 05-08 11:01 ?618次閱讀

    通義千問推出1100億參數(shù)開源模型

    通義千問近日震撼發(fā)布1100億參數(shù)的開源模型Qwen1.5-110B,這一舉措標(biāo)志著通義千問在AI領(lǐng)域邁出了重大步伐。該模型成為通義千問全系列首個(gè)千億級(jí)參數(shù)開源
    的頭像 發(fā)表于 05-06 10:49 ?477次閱讀

    NVIDIA加速微軟最新的Phi-3 Mini開源語(yǔ)言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語(yǔ)言模型。TensorRT-LLM 是一個(gè)開源庫(kù),用于優(yōu)化從 PC 到云端的 NVIDIA GPU 上運(yùn)行的大語(yǔ)言
    的頭像 發(fā)表于 04-28 10:36 ?393次閱讀

    商業(yè)開源MES+源碼+送可拖拽式數(shù)據(jù)大屏

    商業(yè)開源MES+源碼+送可拖拽式數(shù)據(jù)大屏+開發(fā)學(xué)習(xí)的好機(jī)會(huì)
    的頭像 發(fā)表于 04-15 11:21 ?745次閱讀
    商業(yè)<b class='flag-5'>開源</b>MES+<b class='flag-5'>源碼</b>+送可拖拽式數(shù)據(jù)大屏

    谷歌大型模型終于開放源代碼,遲到但重要的開源戰(zhàn)略

    在人工智能領(lǐng)域,谷歌可以算是開源的鼻祖。今天幾乎所有的大語(yǔ)言模型,都基于谷歌在 2017 年發(fā)布的 Transformer 論文;谷歌的發(fā)布的 BERT、T5,都是最早的一批開源 AI 模型
    發(fā)表于 02-22 18:14 ?348次閱讀
    谷歌大型<b class='flag-5'>模型</b>終于開放源代碼,遲到但重要的<b class='flag-5'>開源</b>戰(zhàn)略

    模型開源開放評(píng)測(cè)體系司南正式發(fā)布

    近日,大模型開源開放評(píng)測(cè)體系司南(OpenCompass2.0)正式發(fā)布,旨在為大語(yǔ)言模型、多模態(tài)模型等各類模型提供一站式評(píng)測(cè)服務(wù)。Open
    的頭像 發(fā)表于 02-05 11:28 ?897次閱讀

    Meta發(fā)布CodeLlama70B開源模型

    Meta發(fā)布CodeLlama70B開源模型 Meta發(fā)布了開源模型CodeLlama70B,號(hào)稱是CodeLlama系列體量最大、性能最強(qiáng)的大
    的頭像 發(fā)表于 01-31 10:30 ?1261次閱讀

    字節(jié)發(fā)布機(jī)器人領(lǐng)域首個(gè)開源視覺-語(yǔ)言操作大模型,激發(fā)開源VLMs更大潛能

    對(duì)此,ByteDance Research 基于開源的多模態(tài)語(yǔ)言視覺大模型 OpenFlamingo 開發(fā)了開源、易用的 RoboFlamingo 機(jī)器人操作模型,只用單機(jī)就可以訓(xùn)練。
    的頭像 發(fā)表于 01-23 16:02 ?373次閱讀
    字節(jié)發(fā)布機(jī)器人領(lǐng)域首個(gè)<b class='flag-5'>開源</b>視覺-語(yǔ)言操作大<b class='flag-5'>模型</b>,激發(fā)<b class='flag-5'>開源</b>VLMs更大潛能

    機(jī)器人基于開源的多模態(tài)語(yǔ)言視覺大模型

    ByteDance Research 基于開源的多模態(tài)語(yǔ)言視覺大模型 OpenFlamingo 開發(fā)了開源、易用的 RoboFlamingo 機(jī)器人操作模型,只用單機(jī)就可以訓(xùn)練。
    發(fā)表于 01-19 11:43 ?294次閱讀
    機(jī)器人基于<b class='flag-5'>開源</b>的多模態(tài)語(yǔ)言視覺大<b class='flag-5'>模型</b>

    php的源碼是什么開源語(yǔ)言

    PHP的源碼是用C語(yǔ)言編寫的,是一種開源的服務(wù)器端腳本語(yǔ)言。下面是關(guān)于PHP源碼的詳細(xì)介紹。 一、PHP簡(jiǎn)介 PHP(全稱:PHP: Hypertext Preprocessor)是一種開源
    的頭像 發(fā)表于 12-04 16:11 ?1389次閱讀

    在基于AT32 RT-Thread的源碼包中開啟并下載Micropython開源

    Micropython Based On AT32 RTT講述如何在基于AT32 RT-Thread 的源碼包中開啟并下載Micropython 開源包,并簡(jiǎn)單描述和展示了Micropython 在AT32 系列MCU 上正常運(yùn)行起來后的現(xiàn)象及python 語(yǔ)句的執(zhí)行結(jié)果
    發(fā)表于 10-25 07:06

    有沒有基于PIC18F14K50的開源blaster電路圖和源碼?

    有沒有基于PIC18F14K50的開源blaster電路圖和源碼
    發(fā)表于 10-20 06:22