0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

微軟開(kāi)源“傻瓜式”類(lèi)ChatGPT模型訓(xùn)練工具

OSC開(kāi)源社區(qū) ? 來(lái)源:OSC開(kāi)源社區(qū) ? 2023-04-14 09:36 ? 次閱讀

在利用 OpenAI 的 GPT-4 為 Bing Chat、 Bing Image Creator、Microsoft 365 Copilot、Azure OpenAI Service 和 GitHub Copilot X 引入了類(lèi)似 ChatGPT 的功能后。微軟現(xiàn)又宣布推出 DeepSpeed-Chat,一種用于 RLHF 訓(xùn)練的低成本開(kāi)源解決方案,基于微軟開(kāi)源的深度學(xué)習(xí)優(yōu)化庫(kù) DeepSpeed;聲稱即使是使用單個(gè) GPU,任何人也都可以創(chuàng)建高質(zhì)量的 ChatGPT 式模型。

公司表示,盡管開(kāi)源社區(qū)付出了巨大的努力,但目前仍缺乏一個(gè)支持端到端的基于人工反饋機(jī)制的強(qiáng)化學(xué)習(xí)(RLHF)的規(guī)?;到y(tǒng),這使得訓(xùn)練強(qiáng)大的類(lèi) ChatGPT 模型十分困難。ChatGPT 模型的訓(xùn)練是基于 InstructGPT 論文中的 RLHF 方式,與常見(jiàn)的大語(yǔ)言模型的預(yù)訓(xùn)練和微調(diào)截然不同,使得現(xiàn)有深度學(xué)習(xí)系統(tǒng)在訓(xùn)練類(lèi) ChatGPT 模型時(shí)存在種種局限。因此,為了讓 ChatGPT 類(lèi)型的模型更容易被普通數(shù)據(jù)科學(xué)家和研究者使用,并使 RLHF 訓(xùn)練真正普及到 AI 社區(qū),他們發(fā)布了 DeepSpeed-Chat。

8e39ca58-d9e7-11ed-bfe3-dac502259ad0.png

DeepSpeed-Chat 具有以下三大核心功能:

簡(jiǎn)化 ChatGPT 類(lèi)型模型的訓(xùn)練和強(qiáng)化推理體驗(yàn):只需一個(gè)腳本即可實(shí)現(xiàn)多個(gè)訓(xùn)練步驟,包括使用 Huggingface 預(yù)訓(xùn)練的模型、使用 DeepSpeed-RLHF 系統(tǒng)運(yùn)行 InstructGPT 訓(xùn)練的所有三個(gè)步驟、甚至生成你自己的類(lèi) ChatGPT 模型。此外,還提供了一個(gè)易于使用的推理 API,用于用戶在模型訓(xùn)練后測(cè)試對(duì)話式交互。

DeepSpeed-RLHF 模塊:DeepSpeed-RLHF 復(fù)刻了 InstructGPT 論文中的訓(xùn)練模式,并確保包括 a) 監(jiān)督微調(diào)(SFT),b) 獎(jiǎng)勵(lì)模型微調(diào)和 c) 基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)(RLHF)在內(nèi)的三個(gè)步驟與其一一對(duì)應(yīng)。此外,還提供了數(shù)據(jù)抽象和混合功能,以支持用戶使用多個(gè)不同來(lái)源的數(shù)據(jù)源進(jìn)行訓(xùn)練。

DeepSpeed-RLHF 系統(tǒng):其將 DeepSpeed 的訓(xùn)練(training engine)和推理能力(inference engine) 整合到一個(gè)統(tǒng)一的混合引擎(DeepSpeed Hybrid Engine or DeepSpeed-HE)中用于 RLHF 訓(xùn)練。DeepSpeed-HE 能夠在 RLHF 中無(wú)縫地在推理和訓(xùn)練模式之間切換,使其能夠利用來(lái)自 DeepSpeed-Inference 的各種優(yōu)化,如張量并行計(jì)算和高性能 CUDA 算子進(jìn)行語(yǔ)言生成,同時(shí)對(duì)訓(xùn)練部分還能從 ZeRO- 和 LoRA-based 內(nèi)存優(yōu)化策略中受益。DeepSpeed-HE 還能夠自動(dòng)在 RLHF 的不同階段進(jìn)行智能的內(nèi)存管理和數(shù)據(jù)緩存。

文檔內(nèi)容指出,DeepSpeed Chat 與其他先進(jìn)方案相比的優(yōu)勢(shì)在于:效率和經(jīng)濟(jì)性方面比現(xiàn)有系統(tǒng)快 15 倍以上,在 Azure 云上只需 9 小時(shí)即可訓(xùn)練一個(gè) OPT-13B 模型,只需 18 小時(shí)既可訓(xùn)練 OPT-30B 模型,分別花費(fèi)不到 300 美元和 600 美元。

在速度和可擴(kuò)展性方面,即使是 13B 的模型也可以在 1.25 小時(shí)內(nèi)訓(xùn)練,龐大的 175B 模型可以在不到一天的時(shí)間內(nèi)使用 64 個(gè) GPU 集群進(jìn)行訓(xùn)練。在 RLHF 的可訪問(wèn)性和普及化方面,則可以在單個(gè) GPU 上訓(xùn)練超過(guò) 130 億參數(shù)的模型。此外還支持在相同的硬件上分別運(yùn)行 6.5B 和 50B 的模型,實(shí)現(xiàn)高達(dá) 7.5 倍的提升。

8e44b440-d9e7-11ed-bfe3-dac502259ad0.png

8e6634f8-d9e7-11ed-bfe3-dac502259ad0.png

8e7a9b3c-d9e7-11ed-bfe3-dac502259ad0.png

盡管近期關(guān)于對(duì) ChatGPT 類(lèi)大語(yǔ)言模型發(fā)展的反對(duì)和擔(dān)憂之聲不斷,但微軟似乎仍在全力推進(jìn)其 AI 開(kāi)發(fā)。對(duì)于微軟的此次發(fā)布,前 Meta AI 專家 Elvis 也激動(dòng)地表示,DeepSpeed Chat 提供了 Alpaca 和 Vicuna 等所缺少的、一個(gè)端到端的 RLHF 管道來(lái)訓(xùn)練類(lèi)似 ChatGPT 的模型,解決的是成本和效率方面的挑戰(zhàn)。這是 “微軟令人印象深刻的開(kāi)源努力。..。.. 是一件大事”。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6516

    瀏覽量

    103608
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5422

    瀏覽量

    120593
  • ChatGPT
    +關(guān)注

    關(guān)注

    28

    文章

    1517

    瀏覽量

    6931

原文標(biāo)題:微軟開(kāi)源“傻瓜式”類(lèi)ChatGPT模型訓(xùn)練工具,提速省錢(qián)15倍

文章出處:【微信號(hào):OSC開(kāi)源社區(qū),微信公眾號(hào):OSC開(kāi)源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    llm模型chatGPT的區(qū)別

    基于Transformer架構(gòu)的預(yù)訓(xùn)練語(yǔ)言模型,它可以生成連貫、自然的文本。ChatGPT使用GPT模型作為基礎(chǔ),通過(guò)微調(diào)和訓(xùn)練來(lái)實(shí)現(xiàn)對(duì)話生
    的頭像 發(fā)表于 07-09 09:55 ?459次閱讀

    名單公布!【書(shū)籍評(píng)測(cè)活動(dòng)NO.34】大語(yǔ)言模型應(yīng)用指南:以ChatGPT為起點(diǎn),從入門(mén)到精通的AI實(shí)踐教程

    ,包括開(kāi)源和閉源兩類(lèi)。閉源模型的代表有OpenAI 的 GPT 系列和 Anthropic 的 Claude 系列。毫無(wú)疑問(wèn),目前 OpenAI 的 GPT 系列模型在整個(gè)行業(yè)中處于領(lǐng)
    發(fā)表于 06-03 11:39

    微軟將推出自研AI大模型

    微軟正在緊鑼密鼓地訓(xùn)練一款全新的自研人工智能大模型——“MAI-1”。據(jù)悉,這款模型規(guī)模龐大,足以與谷歌的Gemini和OpenAI的ChatGPT
    的頭像 發(fā)表于 05-13 11:30 ?583次閱讀

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的預(yù)訓(xùn)練

    大語(yǔ)言模型的核心特點(diǎn)在于其龐大的參數(shù)量,這賦予了模型強(qiáng)大的學(xué)習(xí)容量,使其無(wú)需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)習(xí)容量的增加,對(duì)預(yù)訓(xùn)練數(shù)據(jù)的需求也相應(yīng)
    發(fā)表于 05-07 17:10

    微軟自研AI大模型即將問(wèn)世

    微軟正悄然醞釀一項(xiàng)重大技術(shù)突破,據(jù)內(nèi)部消息人士透露,公司正全力訓(xùn)練一款名為“MAI-1”的自研人工智能大模型。這款模型備受期待,其規(guī)模龐大,足以與谷歌的Gemini和OpenAI的
    的頭像 發(fā)表于 05-07 14:46 ?391次閱讀

    NVIDIA加速微軟最新的Phi-3 Mini開(kāi)源語(yǔ)言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開(kāi)源語(yǔ)言模型。TensorRT-LLM 是一個(gè)開(kāi)源庫(kù),用于優(yōu)化從 PC 到云端的
    的頭像 發(fā)表于 04-28 10:36 ?393次閱讀

    探索ChatGPT模型的人工智能語(yǔ)言模型

    最大的區(qū)別ChatGPT是通過(guò)對(duì)話數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,而不僅僅是通過(guò)單一的句子進(jìn)行預(yù)訓(xùn)練,這使得ChatGPT能夠更好地理解對(duì)話的上下文,并進(jìn)行連貫的回復(fù)。
    發(fā)表于 04-24 10:19 ?523次閱讀
    探索<b class='flag-5'>ChatGPT</b><b class='flag-5'>模型</b>的人工智能語(yǔ)言<b class='flag-5'>模型</b>

    李彥宏:開(kāi)源模型將逐漸滯后,文心大模型提升訓(xùn)練與推理效率

    李彥宏解釋道,百度自研的基礎(chǔ)模型——文心 4.0,能夠根據(jù)需求塑造出適應(yīng)各類(lèi)場(chǎng)景的微型版模型,并支持精細(xì)調(diào)整以及后預(yù)訓(xùn)練。相較于直接使用開(kāi)源模型
    的頭像 發(fā)表于 04-16 14:37 ?343次閱讀

    名單公布!【書(shū)籍評(píng)測(cè)活動(dòng)NO.30】大規(guī)模語(yǔ)言模型:從理論到實(shí)踐

    為目的。國(guó)內(nèi)的文心一言就屬于這一類(lèi)。 垂直大模型,聚焦解決垂直領(lǐng)域問(wèn)題,是在通用大模型的基礎(chǔ)上訓(xùn)練行業(yè)專用模型,應(yīng)用到金融、醫(yī)療、教育、養(yǎng)老
    發(fā)表于 03-11 15:16

    谷歌模型訓(xùn)練軟件有哪些?谷歌模型訓(xùn)練軟件哪個(gè)好?

    谷歌在模型訓(xùn)練方面提供了一些強(qiáng)大的軟件工具和平臺(tái)。以下是幾個(gè)常用的谷歌模型訓(xùn)練軟件及其特點(diǎn)。
    的頭像 發(fā)表于 03-01 16:24 ?676次閱讀

    微軟和OpenAI面臨關(guān)于ChatGPT和Copilot的更多訴訟指控

    這三家媒體指責(zé) OpenAI 聊天機(jī)器人 ChatGPT微軟Copilot也使用此項(xiàng)技術(shù))在訓(xùn)練過(guò)程中,未經(jīng)授權(quán)便擅自拷貝了發(fā)布于自家網(wǎng)站的文章。他們宣稱,若用戶知曉 ChatGPT
    的頭像 發(fā)表于 02-29 11:28 ?419次閱讀

    ChatGPT原理 ChatGPT模型訓(xùn)練 chatgpt注冊(cè)流程相關(guān)簡(jiǎn)介

    的影響,其注冊(cè)相對(duì)繁瑣。那么國(guó)內(nèi)如何注冊(cè)ChatGPT賬號(hào)?本文跟大家詳細(xì)分享GPT賬戶注冊(cè)教程,手把手教你成功注冊(cè)ChatGPT。 ChatGPT是一種自然語(yǔ)言處理模型,
    的頭像 發(fā)表于 12-06 16:28 ?716次閱讀
    <b class='flag-5'>ChatGPT</b>原理 <b class='flag-5'>ChatGPT</b><b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b> <b class='flag-5'>chatgpt</b>注冊(cè)流程相關(guān)簡(jiǎn)介

    微軟內(nèi)部禁止員工使用ChatGPT

    近期消息報(bào)道,微軟內(nèi)部禁止員工使用OpenAI產(chǎn)品ChatGPT。最新的微軟內(nèi)部網(wǎng)站消息顯示,:“出于安全和數(shù)據(jù)方面的考慮,許多AI工具不再供員工使用?!?/div>
    的頭像 發(fā)表于 11-10 15:39 ?799次閱讀

    【AI簡(jiǎn)報(bào)20231103期】ChatGPT參數(shù)揭秘,中文最強(qiáng)開(kāi)源模型來(lái)了!

    1. 用FP8訓(xùn)練模型有多香?微軟:比BF16快64%,省42%內(nèi)存 原文: https://mp.weixin.qq.com/s/xLvJXe2FDL8YdByZLHjGMQ 低精度訓(xùn)練
    的頭像 發(fā)表于 11-03 19:15 ?1323次閱讀
    【AI簡(jiǎn)報(bào)20231103期】<b class='flag-5'>ChatGPT</b>參數(shù)揭秘,中文最強(qiáng)<b class='flag-5'>開(kāi)源</b>大<b class='flag-5'>模型</b>來(lái)了!

    SambaNova推類(lèi)ChatGPT開(kāi)源模型BLOOMChat之后再推AI芯片SN40L

    SambaNova推類(lèi)ChatGPT開(kāi)源模型BLOOMChat之后再推AI芯片SN40L SambaNova是硅谷AI芯片初創(chuàng)公司,近期推出了AI芯片SN40L,SN40L芯片基于臺(tái)積
    的頭像 發(fā)表于 09-27 16:05 ?1397次閱讀