0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

8G顯存一鍵訓(xùn)練,解鎖Llama2隱藏能力!XTuner帶你玩轉(zhuǎn)大模型

jf_pmFSk4VX ? 來源:GiantPandaCV ? 2023-09-04 16:12 ? 次閱讀

自 ChatGPT 發(fā)布以來,大模型的強(qiáng)大讓人們看見了通用人工智能的曙光,各個(gè)科技大廠也紛紛開源自家的大語言模型。然而,大模型也意味著高昂的硬件成本,讓不少平民玩家望而卻步。

為了讓大模型走入千家萬戶,賦能百業(yè),上海人工智能實(shí)驗(yàn)室開發(fā)了低成本大模型訓(xùn)練工具箱 XTuner,旨在讓大模型訓(xùn)練不再有門檻。通過 XTuner,最低只需 8GB 顯存,就可以打造專屬于你的 AI 助手。

X 種選擇

a60b02ea-49aa-11ee-97a6-92fbcf53809c.png

XTuner 提供了豐富的功能,上圖中的各項(xiàng)功能都可以隨意組合搭配。

除單點(diǎn)功能外,XTuner 還有以下三個(gè)黑科技,讓開發(fā)者可以做到真正的“面向數(shù)據(jù)”工作。

高效的數(shù)據(jù)引擎

XTuner 適配了多個(gè)熱門開源數(shù)據(jù)集格式,開發(fā)者如已有對應(yīng)格式的數(shù)據(jù)集,可以直接使用,并支持多種格式數(shù)據(jù)源的混合使用:

Alpaca 格式,斯坦福大學(xué)開源數(shù)據(jù)集的格式,也是社區(qū)開源項(xiàng)目使用較多的一種格式

MOSS 格式,復(fù)旦大學(xué)開源指令微調(diào)數(shù)據(jù)集的格式,包含多輪對話和工具調(diào)用

Gunacao 格式,QLoRA 項(xiàng)目中所使用數(shù)據(jù)集的格式

OpenAI 格式,GPT-3.5-Turbo Finetune 接口要求的數(shù)據(jù)集格式

更多數(shù)據(jù)集格式正在持續(xù)添加中......

pip install xtuner # 訓(xùn)練混合了 Alpaca 格式和 Gunacao 格式的數(shù)據(jù) xtuner train internlm_7b_qlora_alpaca_enzh_oasst1_e3

除了支持多種數(shù)據(jù)集格式外,XTuner 還針對大語言模型數(shù)據(jù)的特點(diǎn),對各種數(shù)據(jù)集格式做了充分的解耦,相較于其他的 Finetune 開源項(xiàng)目,可以在不破壞 Chat 模型對話模版的情況下,對 Chat 模型進(jìn)行 Finetune。

pip install xtuner # 不破壞 Chat 模型對話模版,繼續(xù)增量指令微調(diào) xtuner train internlm_chat_7b_qlora_oasst1_e3

針對 GPU 計(jì)算特點(diǎn),在顯存允許的情況下,XTuner 支持將多條短數(shù)據(jù)拼接至模型最大輸入長度,以此最大化 GPU 計(jì)算核心的利用率,可以顯著提升訓(xùn)練速度。例如,在使用 oasst1 數(shù)據(jù)集微調(diào) Llama2-7B 時(shí),數(shù)據(jù)拼接后的訓(xùn)練時(shí)長僅為普通訓(xùn)練的 50%。

多種訓(xùn)練引擎

XTuner 首次嘗試將 HuggingFace 與 OpenMMLab 進(jìn)行結(jié)合,兼顧易用性和可配置性。支持使用 MMEngine Runner 和 HuggingFace Trainer 兩種訓(xùn)練引擎,開發(fā)者如有深度定制化需求,可根據(jù)使用習(xí)慣靈活配置。

pip install xtuner # 使用 MMEngine Runner 訓(xùn)練 xtuner train internlm_7b_qlora_oasst1_e3 # 使用 HugingFace Trainer 訓(xùn)練 xtuner train internlm_7b_qlora_oasst1_e3_hf

一鍵啟動訓(xùn)練

XTuner 內(nèi)置了增量預(yù)訓(xùn)練、單輪&多輪對話指令微調(diào)、工具類指令微調(diào)的標(biāo)準(zhǔn)化流程,讓開發(fā)者只需聚焦于數(shù)據(jù)本身。

同時(shí), XTuner 集成了 QLoRA、DeepSpeed 和 FSDP 等技術(shù),提供各種尺寸模型在各種規(guī)格硬件下的訓(xùn)練解決方案,通過 XTuner 一鍵式啟動訓(xùn)練,僅需 8GB 顯存即可微調(diào) 7B 模型。

pip install 'xtuner[deepspeed]' # 8G 顯存微調(diào) Llama2-7B xtuner train llama2_7b_qlora_oasst1_512_e3 --deepspeed deepspeed_zero2

基于此,開發(fā)者可以專注于數(shù)據(jù),其他環(huán)節(jié)放心交給 XTuner,抽出更多精力去奔向大模型的星辰大海!

X 種玩法

通過 XTuner,開發(fā)者可以給大模型添加插件,補(bǔ)足大模型欠缺的能力,甚至獲得某些 ChatGPT 才有的技能。

XTuner 在 HuggingFace Hub 上提供了豐富的大模型插件,以下示例都可以在 Hub 中找到,歡迎大家下載體驗(yàn)!

ColoristLlama -- 你的專屬調(diào)色師

通過在少量顏色注釋數(shù)據(jù)集上對 Llama2-7B 進(jìn)行指令微調(diào)訓(xùn)練,XTuner 成功解鎖了其調(diào)色能力。最終得到的模型甚至可以像“你的甲方”一樣反復(fù)修訂!

a65a773a-49aa-11ee-97a6-92fbcf53809c.gif

a6751fd6-49aa-11ee-97a6-92fbcf53809c.gif

pip install xtuner xtuner chat hf meta-llama/Llama-2-7b-hf --adapter xtuner/Llama-2-7b-qlora-colorist --prompt-template colorist

Llama "聯(lián)網(wǎng)" -- 更可靠及時(shí)的回答

借助 XTuner 及插件開源數(shù)據(jù)集,我們還解鎖了 Llama 2、QWen 等開源模型的隱藏能力, 使其可以像 ChatGPT 一樣聯(lián)網(wǎng)搜索、調(diào)用工具,獲得更可靠的回復(fù)。

a68d9408-49aa-11ee-97a6-92fbcf53809c.gif

a6cac03a-49aa-11ee-97a6-92fbcf53809c.gif

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    27

    文章

    4591

    瀏覽量

    128146
  • 顯存
    +關(guān)注

    關(guān)注

    0

    文章

    108

    瀏覽量

    13615
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2136

    瀏覽量

    1982

原文標(biāo)題:8G顯存一鍵訓(xùn)練,解鎖Llama2隱藏能力!XTuner帶你玩轉(zhuǎn)大模型

文章出處:【微信號:GiantPandaCV,微信公眾號:GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    一鍵斷電開關(guān)的種類有哪些

    內(nèi)部的小電流控制大電流,達(dá)到弱電控制強(qiáng)電的目的。 特點(diǎn) :快速、安全,能夠切斷所有連接的電源,適合需要快速切斷電源的場景。 應(yīng)用場景 :家庭、辦公室、工廠等需要一鍵控制多個(gè)電源的場景。 2. 智能開關(guān)式一鍵斷電 定義 :隨著智能
    的頭像 發(fā)表于 09-13 16:45 ?184次閱讀

    源2.0-M32大模型發(fā)布量化版 運(yùn)行顯存僅需23GB 性能可媲美LLaMA3

    北京2024年8月23日?/美通社/ -- 近日,浪潮信息發(fā)布源2.0-M32大模型4bit和8bit量化版,性能比肩700億參數(shù)的LLaMA3開源大
    的頭像 發(fā)表于 08-25 22:06 ?157次閱讀
    源2.0-M32大<b class='flag-5'>模型</b>發(fā)布量化版 運(yùn)行<b class='flag-5'>顯存</b>僅需23GB 性能可媲美<b class='flag-5'>LLaMA</b>3

    變電站一鍵順控系統(tǒng)和開關(guān)柜一鍵順控有區(qū)別嗎?

    變電站一鍵順控系統(tǒng)和開關(guān)柜一鍵順控技術(shù)雖然都涉及到“一鍵順控”的概念,但它們在應(yīng)用范圍和具體實(shí)現(xiàn)上有所不同,因此變電站一鍵順控系統(tǒng)和開關(guān)柜一鍵
    的頭像 發(fā)表于 07-31 13:34 ?219次閱讀
    變電站<b class='flag-5'>一鍵</b>順控系統(tǒng)和開關(guān)柜<b class='flag-5'>一鍵</b>順控有區(qū)別嗎?

    摩爾線程和滴普科技完成大模型訓(xùn)練與推理適配

    近日,摩爾線程與滴普科技宣布了項(xiàng)重要合作成果。摩爾線程的夸娥(KUAE)千卡智算集群與滴普科技的企業(yè)大模型Deepexi已完成訓(xùn)練及推理適配,共同實(shí)現(xiàn)了700億參數(shù)LLaMA2大語言
    的頭像 發(fā)表于 05-30 10:14 ?416次閱讀

    Meta Llama 3基礎(chǔ)模型現(xiàn)已在亞馬遜云科技正式可用

    亞馬遜云科技近日宣布,Meta公司最新發(fā)布的兩款Llama 3基礎(chǔ)模型——Llama 3 8B和Llama 3 70B,現(xiàn)已正式上線并集成至
    的頭像 發(fā)表于 05-09 10:39 ?281次閱讀

    【大語言模型:原理與工程實(shí)踐】大語言模型的預(yù)訓(xùn)練

    進(jìn)行損失計(jì)算,得到下個(gè)目標(biāo)的預(yù)測。也會設(shè)計(jì)些其他輔助訓(xùn)練任務(wù),與主任務(wù)共同訓(xùn)練。選擇合適的預(yù)訓(xùn)練數(shù)據(jù)是確保
    發(fā)表于 05-07 17:10

    fatfs支持8G以上的內(nèi)存卡嗎?

    在官網(wǎng)上下載了最新版的fatfs發(fā)現(xiàn)2G的SD卡可以正常讀寫 8G以上的SDHC則不能被識別 初始化都過不去
    發(fā)表于 04-26 07:40

    Meta推出最強(qiáng)開源模型Llama 3 要挑戰(zhàn)GPT

    公司這次開源了Llama 3 8B與70B兩款不同規(guī)模的模型,開發(fā)者可以免費(fèi)使用,而Meta公司還將陸續(xù)推出系列具備多模態(tài)、多語言對話、更長上下文窗口等
    的頭像 發(fā)表于 04-19 17:00 ?714次閱讀

    Meta公司的Llama2語言模型4項(xiàng)測試通過率低,幻覺率高

    據(jù)了解,人工智能安全企業(yè) DeepKeep日前發(fā)表了份評估報(bào)告。報(bào)告指出,Meta公司旗下LlamA 2大型語言模型在13個(gè)風(fēng)險(xiǎn)評估類別中的表現(xiàn)僅為4項(xiàng)合格。
    的頭像 發(fā)表于 04-18 14:45 ?371次閱讀

    LLaMA 2是什么?LLaMA 2背后的研究工作

    Meta 發(fā)布的 LLaMA 2,是新的 sota 開源大型語言模型 (LLM)。LLaMA 2 代表著
    的頭像 發(fā)表于 02-21 16:00 ?830次閱讀

    LayerNorm/RMSNorm的重計(jì)算實(shí)現(xiàn)

    我去實(shí)測了下,單機(jī)8卡A100訓(xùn)練LLama7B,純數(shù)據(jù)并行的情況下打開memory_efficient開關(guān)相比于不打開節(jié)省了大約2個(gè)
    的頭像 發(fā)表于 01-16 09:55 ?2774次閱讀
    LayerNorm/RMSNorm的重計(jì)算實(shí)現(xiàn)

    【飛騰派4G版免費(fèi)試用】仙女姐姐的嵌入式實(shí)驗(yàn)室之五~LLaMA.cpp及3B“小模型”O(jiān)penBuddy-StableLM-3B

    訓(xùn)練是MetaAI研究人員認(rèn)為的種降低模型使用成本的方式。為了更好的效果,即便是LLaMA最小的70億參數(shù)的版本,其訓(xùn)練使用的tokens
    發(fā)表于 12-22 10:18

    一鍵解鎖!晶體管結(jié)構(gòu)工藝發(fā)展歷程

    一鍵解鎖!晶體管結(jié)構(gòu)工藝發(fā)展歷程
    的頭像 發(fā)表于 12-07 09:48 ?606次閱讀
    <b class='flag-5'>一鍵</b><b class='flag-5'>解鎖</b>!晶體管結(jié)構(gòu)工藝發(fā)展歷程

    一鍵開關(guān)電路的好處?生活中的一鍵開關(guān)電路有哪些?

    一鍵開關(guān)電路的好處?生活中的一鍵開關(guān)電路有哪些? 一鍵開關(guān)電路是指個(gè)電路設(shè)計(jì),可以用個(gè)按鈕或開關(guān)來控制多個(gè)電器或燈具的開關(guān)。
    的頭像 發(fā)表于 10-22 15:18 ?1766次閱讀

    在線研討會 | 基于 LLM 構(gòu)建中文場景檢索式對話機(jī)器人:Llama2 + NeMo

    4,096,并對算法細(xì)節(jié)進(jìn)行了優(yōu)化,加速了推理速度,讓 Llama2 的性能有了很大的提升,能夠和 ChatGPT 相媲美。 Llama2模型旨在處理廣泛的語言任務(wù),包括文本生成、機(jī)器翻譯、問題回答、代碼生成等等。該
    的頭像 發(fā)表于 10-13 20:35 ?832次閱讀
    在線研討會 | 基于 LLM 構(gòu)建中文場景檢索式對話機(jī)器人:<b class='flag-5'>Llama2</b> + NeMo