0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

開源才是大模型的未來?

科技云報到 ? 來源:科技云報道 ? 作者:科技云報道 ? 2023-12-25 12:33 ? 次閱讀

科技云報道原創(chuàng)。

一年前,ChatGPT橫空出世;7個多月后,Meta宣布開源LLaMA 2,并且可免費商用。

這一天,也成為大模型發(fā)展的分水嶺。短時間內,LLaMA 2對一些閉源的大模型廠商造成了致命性的打擊。

隨后,全球頭部廠商和創(chuàng)業(yè)公司紛紛加入開源浪潮中。目前,國內也有近一半的大模型選擇了開源的方式:

今年7月,智譜AI宣布開源大模型ChatGLM-6B和ChatGLM2-6B,這兩個模型的下載量已經先后超過300萬和120萬。

8月,阿里宣布開源通義千問70億參數(shù)模型Qwen-7B,一個多月下載量破100萬;12月,阿里持續(xù)開源通義千問720億參數(shù)模型Qwen-72B、18億參數(shù)模型Qwen-1.8B和音頻大模型Qwen-Audio。

9月,百川智能宣布開源Baichuan-7B、13B兩款大模型,其下載量目前已經突破500萬,200多家企業(yè)申請部署開源大模型。

11月,元象XVERSE宣布開源650億參數(shù)高性能通用大模型XVERSE-65B;

11月底,浪潮信息發(fā)布完全開源且可免費商用的源2.0基礎大模型,包含1026億、518億、21億不同參數(shù)規(guī)模......

僅僅在過去的一個月內,國內最大開源模型的參數(shù)紀錄就已經被刷新了N次。性能參數(shù)、性價比、可靠性,正成為搶占先機的關鍵詞,而開源似乎也成為大模型發(fā)展的主流趨勢。

有業(yè)內人士認為,未來90%的企業(yè)會傾向基于開源大模型發(fā)展。那么,開源是否真的是大模型的未來?

開源大模型快速趕超

開源大模型的核心理念是開放源代碼,允許公眾訪問、使用、修改和分發(fā)模型的源代碼。

面對市場競爭,開源大模型的免費使用是非常有吸引力的獲客手段;同時,低成本的試錯也有助于開源大模型更快觸達潛在用戶群體,降低企業(yè)認知和決策難度,加速創(chuàng)新。

從技術角度看,大模型涉及許多技術問題,單靠一家企業(yè)很難解決。開源大模型鼓勵全球開發(fā)者社區(qū)的參與和貢獻,這種集體智慧能夠加速技術的迭代和創(chuàng)新,如GitHub上的眾多AI項目就證明了這一點。

不僅如此,開源代碼使得研究人員和用戶能夠審查模型的工作原理和決策過程,從而提高大模型的透明度和可信賴性。這對于解決AI的公平性、偏見和倫理問題至關重要。

事實上,自從LLaMA 2開源后,業(yè)界開始意識到大模型技術沒有任何護欄。

基于成本的考慮,許多企業(yè)選擇放棄支付上千萬元的調用閉源大模型API的費用,轉而部署和微調LLaMA 2。

創(chuàng)業(yè)者們的目光從解構、增強LLaMA 2轉向了構建行業(yè)專有大模型,又掀起了一波LLaMA 2+司法、LLaMA 2+醫(yī)療等一系列的行業(yè)開源大模型。據不完全統(tǒng)計,LLaMA 2開源后,國內就涌現(xiàn)出了十幾個開源行業(yè)大模型。

一份從谷歌內部泄露出來的備忘錄(標題是《我們沒有護城河》)證實了這種觀點:

“我們無法贏得這場軍備競賽,OpenAI 也一樣。當我們爭吵不休的時候,第三個派系(開源)卻在悄悄地吃掉我們的午餐”。

谷歌備忘錄作者發(fā)現(xiàn),自從LLaMA開源后,立刻出現(xiàn)了大量的創(chuàng)新,重大開發(fā)成果之間的間隔也在縮短。

Meta是一個明顯的贏家,他們有效地獲得了整個星球的免費勞動力,大多數(shù)開源創(chuàng)新都發(fā)生在他們的架構之上,沒有什么能阻止他們將其直接整合到他們的產品中。

“當免費、不受限制的替代品在質量上具有可比性時,人們就不會為受限制的模型付費”,備忘錄里寫道。

最近,Meta首席AI科學家Yann LeCun轉發(fā)了方舟投資(ARK Invest)制作的一張趨勢圖,描繪了開源社區(qū)與閉源模型在生成式AI上的發(fā)展。

“開源人工智能模型正走在超越專有模型的路上”,他感概道。

有網友甚至表示,我們正在接近一個臨界點。以目前開源社區(qū)項目的發(fā)展速度,開源大模型將在未來12個月內達到GPT-4的水平。

未來1-2年,開源力量可能在與閉源大模型分庭抗禮。

開源大模型的商業(yè)化挑戰(zhàn)

盡管開源已成為現(xiàn)階段大模型發(fā)展的一種主流趨勢,開源大模型的發(fā)展速度也遠快于封閉生態(tài)系統(tǒng),但并非所有的廠商都選擇開源路線,也并不代表廠商會一直開源所有的大模型。

比如,以開源切入大模型賽道的百川智能,在發(fā)布完Baichuan-7B、Baichuan-13B開源大模型后,參數(shù)更大的Baichuan-53B大模型則選擇了閉源。

由此可見,開源或閉源并非大模型的唯一發(fā)展路徑。在當下,能夠閉源的大模型一定是可以提供足夠高的價值,幫用戶更好地完成高性能的大模型訓練、推理和部署,通過調用API的方式來幫助用戶降低門檻。

這也是OpenAI等AI巨頭閉源的思路,因其自身技術的絕對領先優(yōu)勢,使得其價值也非常的大。

相比之下,開源大模型除了快速迭代、證明自己的價值,還面臨著更多的挑戰(zhàn),比如:

由于源代碼的公開性,開源大模型可能更容易受到惡意攻擊或濫用,確保數(shù)據安全和用戶隱私需要額外的努力和監(jiān)管。

同時,來自商業(yè)模式的不確定性,如何在保持開放的同時實現(xiàn)可持續(xù)的商業(yè)發(fā)展,始終是開源需要解決的重要問題。

回顧歷史,紅帽在開源商業(yè)化成功的道路上已做出了示范。作為最早通過提供企業(yè)級 Linux 發(fā)行版和相關服務的公司,紅帽通過訂閱模式為客戶提供技術支持、更新和定制化服務。

紅帽的商業(yè)化路徑具體而言:在最上游的開源社區(qū),參與開源技術貢獻,做大做強生態(tài);提取開源社區(qū)中的上游技術產品,沉淀到自己小開源社區(qū);再將其認為最有價值的技術檢驗、測試、打包,形成新的產品組合,完成閉源出售給客戶。

同樣將開源成功商業(yè)化的公司還有MongoDB, Databricks, Cloudera, GitLab, Docker, MySQL AB......這些案例都表明,開源軟件可以通過提供增值服務、技術支持、企業(yè)級特性、云服務等方式實現(xiàn)商業(yè)化,同時保持與開源社區(qū)的互動和合作。

盡管珠玉在前,但并不代表開源大模型商業(yè)化是一件容易的事。

在如此多的開源大模型競爭壓力下,如何提高自身大模型在用戶中的知名度和接受度,讓用戶從免費使用轉向付費服務,同時還要防止競爭對手可能基于相同的代碼庫創(chuàng)建自己的產品或服務,都考驗著開源大模型廠商的能力和速度。

開源與閉源大模型的協(xié)同演化

實際上,開源大模型和閉源大模型各有優(yōu)劣,且在不同的應用場景和需求下各有其適用性,兩者并非絕對的對立面,而是可以在某些方面相互借鑒和融合。

開源是為了保持社區(qū)的繁榮和多樣性,能夠保證技術、產品能夠源源不斷補充新鮮的血液和產生新的變化。

閉源的商業(yè)化版本是用來滿足商業(yè)化的需求,即安全、低成本、高效、持續(xù)有價值的服務。對比商業(yè)版本,開源版本一定是滯后的,包括技術的迭代、維護等等。

因此,兩者的優(yōu)勢并不在同一個位置,也很難斷言哪一個模式將完全主導大模型的未來。相反,可以預見的是,開源和閉源大模型將在以下幾個方面實現(xiàn)協(xié)同演化:

一是,共享與競爭并存。

開源大模型和閉源大模型將在某些領域展開激烈的競爭,如自然語言處理、計算機視覺等。同時,它們也可能在其他領域共享成果和技術,推動整個AI行業(yè)的進步。

二是,混合模式的出現(xiàn)。

為了兼顧創(chuàng)新速度、透明度、安全性和商業(yè)利益,一些公司可能會選擇采用混合模式,即開放基礎模型的源代碼,但保留高級功能或特定應用的閉源。

這種模式既可以吸引開發(fā)者和用戶的參與,又可以保護公司的核心競爭力。

三是,標準化與監(jiān)管的加強。

隨著AI技術的發(fā)展和應用的普及,政府和行業(yè)組織可能會加強對開源和閉源大模型的標準化和監(jiān)管工作,以確保模型的安全、公平和透明。

這將進一步規(guī)范市場行為,促進開源和閉源大模型的健康發(fā)展。

結語

當然,無論是開源還是閉源,重要的是持續(xù)創(chuàng)新、提升透明度和安全性,以及實現(xiàn)AI技術的社會價值和經濟價值的最大化。比起斷定誰會是大模型的未來,不如去關注如何合理利用這兩種模式,去塑造一個更加智能、開放、安全和可持續(xù)的AI未來。

【關于科技云報道】

專注于原創(chuàng)的企業(yè)級內容行家——科技云報道。成立于2015年,是前沿企業(yè)級IT領域Top10媒體。獲工信部權威認可,可信云、全球云計算大會官方指定傳播媒體之一。深入原創(chuàng)報道云計算、大數(shù)據、人工智能、區(qū)塊鏈等領域。

審核編輯:湯梓紅

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 開源
    +關注

    關注

    3

    文章

    3146

    瀏覽量

    42085
  • 大模型
    +關注

    關注

    2

    文章

    2146

    瀏覽量

    1998
收藏 人收藏

    評論

    相關推薦

    摩爾線程正式開源音頻理解大模型MooER

    近日,國內領先的GPU創(chuàng)新企業(yè)摩爾線程宣布了一項重大技術突破——正式開源其自主研發(fā)的音頻理解大模型MooER(摩耳)。這一舉動標志著我國在音頻處理與理解領域邁出了堅實的一步,特別是在基于國產硬件的AI模型研發(fā)上取得了顯著成就。
    的頭像 發(fā)表于 08-27 15:24 ?347次閱讀

    浪潮信息發(fā)布“源2.0-M32”開源模型

    浪潮信息近日推出了革命性的“源2.0-M32”開源模型。該模型在源2.0系列基礎上,引入了“基于注意力機制的門控網絡”技術,構建了一個包含32個專家的混合專家模型(MoE),有效提升
    的頭像 發(fā)表于 05-29 09:08 ?522次閱讀

    通義千問開源千億級參數(shù)模型

    通義千問近日開源了其首個千億級參數(shù)模型Qwen1.5-110B,這是其全系列中首個達到千億級別的開源模型。Qwen1.5-110B模型繼承了
    的頭像 發(fā)表于 05-08 11:01 ?618次閱讀

    通義千問推出1100億參數(shù)開源模型

    通義千問近日震撼發(fā)布1100億參數(shù)的開源模型Qwen1.5-110B,這一舉措標志著通義千問在AI領域邁出了重大步伐。該模型成為通義千問全系列首個千億級參數(shù)開源
    的頭像 發(fā)表于 05-06 10:49 ?479次閱讀

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM 是一個開源庫,用于優(yōu)化從 PC 到云端的 NVIDIA GPU 上運行的大語言
    的頭像 發(fā)表于 04-28 10:36 ?394次閱讀

    李彥宏:開源模型將逐漸滯后,文心大模型提升訓練與推理效率

    李彥宏解釋道,百度自研的基礎模型——文心 4.0,能夠根據需求塑造出適應各類場景的微型版模型,并支持精細調整以及后預訓練。相較于直接使用開源模型,這種經過降維處理的
    的頭像 發(fā)表于 04-16 14:37 ?343次閱讀

    谷歌發(fā)布輕量級開源人工智能模型Gemma

    谷歌近日宣布推出開源人工智能(AI)模型系列Gemma,旨在為開發(fā)人員和研究人員提供一個負責任的AI構建平臺。這一舉措標志著自2022年OpenAI的ChatGPT引領AI聊天機器人熱潮后,谷歌首次發(fā)布重要的開源大型語言
    的頭像 發(fā)表于 02-23 11:38 ?697次閱讀

    谷歌大型模型終于開放源代碼,遲到但重要的開源戰(zhàn)略

    在人工智能領域,谷歌可以算是開源的鼻祖。今天幾乎所有的大語言模型,都基于谷歌在 2017 年發(fā)布的 Transformer 論文;谷歌的發(fā)布的 BERT、T5,都是最早的一批開源 AI 模型
    發(fā)表于 02-22 18:14 ?348次閱讀
    谷歌大型<b class='flag-5'>模型</b>終于開放源代碼,遲到但重要的<b class='flag-5'>開源</b>戰(zhàn)略

    模型開源開放評測體系司南正式發(fā)布

    近日,大模型開源開放評測體系司南(OpenCompass2.0)正式發(fā)布,旨在為大語言模型、多模態(tài)模型等各類模型提供一站式評測服務。Open
    的頭像 發(fā)表于 02-05 11:28 ?897次閱讀

    Meta發(fā)布CodeLlama70B開源模型

    Meta發(fā)布CodeLlama70B開源模型 Meta發(fā)布了開源模型CodeLlama70B,號稱是CodeLlama系列體量最大、性能最強的大
    的頭像 發(fā)表于 01-31 10:30 ?1261次閱讀

    Meta發(fā)布開源模型Code Llama 70B

    近日,Meta宣布推出了一款新的開源模型Code Llama 70B,這是其“Code Llama家族中體量最大、性能最好的模型版本”。這款新模型提供三種版本,并免費供學術界和商業(yè)界
    的頭像 發(fā)表于 01-31 09:24 ?749次閱讀

    字節(jié)發(fā)布機器人領域首個開源視覺-語言操作大模型,激發(fā)開源VLMs更大潛能

    對此,ByteDance Research 基于開源的多模態(tài)語言視覺大模型 OpenFlamingo 開發(fā)了開源、易用的 RoboFlamingo 機器人操作模型,只用單機就可以訓練。
    的頭像 發(fā)表于 01-23 16:02 ?373次閱讀
    字節(jié)發(fā)布機器人領域首個<b class='flag-5'>開源</b>視覺-語言操作大<b class='flag-5'>模型</b>,激發(fā)<b class='flag-5'>開源</b>VLMs更大潛能

    機器人基于開源的多模態(tài)語言視覺大模型

    ByteDance Research 基于開源的多模態(tài)語言視覺大模型 OpenFlamingo 開發(fā)了開源、易用的 RoboFlamingo 機器人操作模型,只用單機就可以訓練。
    發(fā)表于 01-19 11:43 ?298次閱讀
    機器人基于<b class='flag-5'>開源</b>的多模態(tài)語言視覺大<b class='flag-5'>模型</b>

    軟件定義世界 開源共筑未來 首屆“開放原子開源大賽”火熱進行中

    近日,2023 首屆開放原子開源大賽正在火熱進行中。本次大賽以“軟件定義世界,開源共筑未來”為主題,旨在聯(lián) 合開源組織、企事業(yè)單位、高等院校、科研院所、行業(yè)組織、投融資機構等多方資源,
    的頭像 發(fā)表于 12-21 14:40 ?282次閱讀
    軟件定義世界 <b class='flag-5'>開源</b>共筑<b class='flag-5'>未來</b> 首屆“開放原子<b class='flag-5'>開源</b>大賽”火熱進行中

    阿里云通義千問720億參數(shù)模型宣布開源

    12月1日,阿里云通義千問720億參數(shù)模型Qwen-72B宣布開源。與此同時,他們還開源了18億參數(shù)模型Qwen-1.8B和音頻大模型Qwe
    的頭像 發(fā)表于 12-01 17:08 ?1211次閱讀