0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

下載量超300w的ChatGLM-6B再升級(jí):8-32k上下文,推理提速42%

OSC開(kāi)源社區(qū) ? 來(lái)源:OSC開(kāi)源社區(qū) ? 2023-06-29 16:15 ? 次閱讀

GLM 技術(shù)團(tuán)隊(duì)宣布再次升級(jí) ChatGLM-6B,發(fā)布 ChatGLM2-6B。ChatGLM-6B 于 3 月 14 日發(fā)布,截至 6 月 24 日在 Huggingface 上的下載量已經(jīng)超過(guò) 300w。 截至 6 月 25 日,ChatGLM2 模型在主要評(píng)估 LLM 模型中文能力的 C-Eval 榜單中以 71.1 的分?jǐn)?shù)位居 Rank 0;ChatGLM2-6B 模型則以 51.7 的分?jǐn)?shù)位居 Rank 6,是榜單上排名最高的開(kāi)源模型。

e88cc704-15a0-11ee-962d-dac502259ad0.png

ChatGLM2-6B 是開(kāi)源中英雙語(yǔ)對(duì)話模型 ChatGLM-6B 的第二代版本,在保留了初代模型對(duì)話流暢、部署門檻較低等眾多優(yōu)秀特性的基礎(chǔ)之上,ChatGLM2-6B 引入了如下新特性:

更強(qiáng)大的性能:基于 ChatGLM 初代模型的開(kāi)發(fā)經(jīng)驗(yàn),全面升級(jí)了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 GLM 的混合目標(biāo)函數(shù),經(jīng)過(guò)了 1.4T 中英標(biāo)識(shí)符的預(yù)訓(xùn)練與人類偏好對(duì)齊訓(xùn)練,評(píng)測(cè)結(jié)果顯示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等數(shù)據(jù)集上的性能取得了大幅度的提升,在同尺寸開(kāi)源模型中具有較強(qiáng)的競(jìng)爭(zhēng)力。

更長(zhǎng)的上下文:基于 FlashAttention 技術(shù),項(xiàng)目團(tuán)隊(duì)將基座模型的上下文長(zhǎng)度(Context Length)由 ChatGLM-6B 的 2K 擴(kuò)展到了 32K,并在對(duì)話階段使用 8K 的上下文長(zhǎng)度訓(xùn)練,允許更多輪次的對(duì)話。但當(dāng)前版本的 ChatGLM2-6B 對(duì)單輪超長(zhǎng)文檔的理解能力有限,我們會(huì)在后續(xù)迭代升級(jí)中著重進(jìn)行優(yōu)化。

更高效的推理:基于 Multi-Query Attention 技術(shù),ChatGLM2-6B 有更高效的推理速度和更低的顯存占用:在官方的模型實(shí)現(xiàn)下,推理速度相比初代提升了 42%,INT4 量化下,6G 顯存支持的對(duì)話長(zhǎng)度由 1K 提升到了 8K。

更開(kāi)放的協(xié)議:ChatGLM2-6B 權(quán)重對(duì)學(xué)術(shù)研究完全開(kāi)放,在獲得官方的書(shū)面許可后,亦允許商業(yè)使用。

評(píng)測(cè)結(jié)果

以下為 ChatGLM2-6B 模型在 MMLU (英文)、C-Eval(中文)、GSM8K(數(shù)學(xué))、BBH(英文) 上的測(cè)評(píng)結(jié)果。

e8c601e0-15a0-11ee-962d-dac502259ad0.png

推理性能

ChatGLM2-6B 使用了 Multi-Query Attention,提高了生成速度。生成 2000 個(gè)字符的平均速度對(duì)比如下

e908b06c-15a0-11ee-962d-dac502259ad0.png

Multi-Query Attention 同時(shí)也降低了生成過(guò)程中 KV Cache 的顯存占用,此外,ChatGLM2-6B 采用 Causal Mask 進(jìn)行對(duì)話訓(xùn)練,連續(xù)對(duì)話時(shí)可復(fù)用前面輪次的 KV Cache,進(jìn)一步優(yōu)化了顯存占用。因此,使用 6GB 顯存的顯卡進(jìn)行 INT4 量化的推理時(shí),初代的 ChatGLM-6B 模型最多能夠生成 1119 個(gè)字符就會(huì)提示顯存耗盡,而 ChatGLM2-6B 能夠生成至少 8192 個(gè)字符。

e93eb04a-15a0-11ee-962d-dac502259ad0.png

項(xiàng)目團(tuán)隊(duì)也測(cè)試了量化對(duì)模型性能的影響。結(jié)果表明,量化對(duì)模型性能的影響在可接受范圍內(nèi)。

e9538a2e-15a0-11ee-962d-dac502259ad0.png

示例對(duì)比

相比于初代模型,ChatGLM2-6B 多個(gè)維度的能力都取得了提升,以下是一些對(duì)比示例。 數(shù)理邏輯

e975b338-15a0-11ee-962d-dac502259ad0.png

e99b519c-15a0-11ee-962d-dac502259ad0.png

知識(shí)推理

e9dd13ac-15a0-11ee-962d-dac502259ad0.png

ea0bf118-15a0-11ee-962d-dac502259ad0.png

長(zhǎng)文檔理解

ea33526c-15a0-11ee-962d-dac502259ad0.png

ea6b3e98-15a0-11ee-962d-dac502259ad0.png

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 開(kāi)源
    +關(guān)注

    關(guān)注

    3

    文章

    3215

    瀏覽量

    42327
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3112

    瀏覽量

    48658
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1200

    瀏覽量

    24619

原文標(biāo)題:下載量超300w的ChatGLM-6B再升級(jí):8-32k上下文,推理提速42%

文章出處:【微信號(hào):OSC開(kāi)源社區(qū),微信公眾號(hào):OSC開(kāi)源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    SystemView上下文統(tǒng)計(jì)窗口識(shí)別阻塞原因

    SystemView工具可以記錄嵌入式系統(tǒng)的運(yùn)行時(shí)行為,實(shí)現(xiàn)可視化的深入分析。在新發(fā)布的v3.54版本中,增加了一項(xiàng)新功能:上下文統(tǒng)計(jì)窗口,提供了對(duì)任務(wù)運(yùn)行時(shí)統(tǒng)計(jì)信息的深入分析,使用戶能夠徹底檢查每個(gè)任務(wù),幫助開(kāi)發(fā)人員識(shí)別阻塞原因。
    的頭像 發(fā)表于 08-20 11:31 ?362次閱讀

    chatglm2-6b在P40上做LORA微調(diào)

    chatglm2-6b相比于chatglm有幾方面的提升: 1. 性能提升: 相比初代模型,升級(jí)ChatGLM2-6B 的基座模型,同時(shí)在各項(xiàng)數(shù)據(jù)集評(píng)測(cè)上取得了不錯(cuò)的成績(jī); 2.
    的頭像 發(fā)表于 08-13 17:12 ?414次閱讀
    <b class='flag-5'>chatglm2-6b</b>在P40上做LORA微調(diào)

    大聯(lián)大推出基于Innoscience產(chǎn)品的300W電源適配器方案

    不僅能為手機(jī)、平板、筆記本電腦提供快速充電,更高功率要求的家用設(shè)備同樣適用!大聯(lián)大詮鼎集團(tuán)推出基于InnoGaN INN700D140C & INN700DA140C 設(shè)計(jì)的300W適配器電源方案,與常規(guī)Si MOS的適配器對(duì)比,功率密度提高8W/in^3,體積減小30%
    的頭像 發(fā)表于 06-21 10:24 ?658次閱讀
    大聯(lián)大推出基于Innoscience產(chǎn)品的<b class='flag-5'>300W</b>電源適配器方案

    鴻蒙Ability Kit(程序框架服務(wù))【應(yīng)用上下文Context】

    [Context]是應(yīng)用中對(duì)象的上下文,其提供了應(yīng)用的一些基礎(chǔ)信息,例如resourceManager(資源管理)、applicationInfo(當(dāng)前應(yīng)用信息)、dir(應(yīng)用文件路徑)、area
    的頭像 發(fā)表于 06-06 09:22 ?388次閱讀
    鴻蒙Ability Kit(程序框架服務(wù))【應(yīng)用<b class='flag-5'>上下文</b>Context】

    微軟發(fā)布PhI-3-Vision模型,提升視覺(jué)AI效率

    Phi-3-vision 是一種小型多模式語(yǔ)言模型(SLM),主要適用于本地人工智能場(chǎng)景。其模型參數(shù)高達(dá) 42 億,上下文序列包含 128k 個(gè)符號(hào),可滿足各種視覺(jué)推理和其他任務(wù)需求。
    的頭像 發(fā)表于 05-28 11:35 ?417次閱讀

    PMP31052.1-汽車類四開(kāi)關(guān)、大于 300W 降壓/升壓 PCB layout 設(shè)計(jì)

    電子發(fā)燒友網(wǎng)站提供《PMP31052.1-汽車類四開(kāi)關(guān)、大于 300W 降壓/升壓 PCB layout 設(shè)計(jì).pdf》資料免費(fèi)下載
    發(fā)表于 05-22 15:13 ?1次下載
    PMP31052.1-汽車類四開(kāi)關(guān)、大于 <b class='flag-5'>300W</b> 降壓/升壓 PCB layout 設(shè)計(jì)

    編寫一個(gè)任務(wù)調(diào)度程序,在上下文切換后遇到了一些問(wèn)題求解

    大家好, 我正在編寫一個(gè)任務(wù)調(diào)度程序,在上下文切換后遇到了一些問(wèn)題。 為下一個(gè)任務(wù)恢復(fù)上下文后: __builtin_tricore_mtcr_by_name(\"pcxi\"
    發(fā)表于 05-22 07:50

    STM32F051K8U632K程序寫入就掛怎么解決?

    如題,STM32F051K8U6MCU,當(dāng)程序在32K以下時(shí),編程或在線調(diào)試都沒(méi)問(wèn)題。但當(dāng)程序32
    發(fā)表于 04-10 06:45

    TC397收到EVAL_6EDL7141_TRAP_1SH 3上下文管理EVAL_6EDL7141_TRAP_1SH錯(cuò)誤怎么解決?

    我收到EVAL_6EDL7141_TRAP_1SH 3 類(TIN4-Free 上下文列表下溢)上下文管理EVAL_6EDL7141_TRAP_1SH錯(cuò)誤。 請(qǐng)告訴我解決這個(gè)問(wèn)題的辦法
    發(fā)表于 03-06 08:00

    請(qǐng)問(wèn)risc-v中斷還需要軟件保存上下文和恢復(fù)嗎?

    risc-v中斷還需要軟件保存上下文和恢復(fù)嗎?
    發(fā)表于 02-26 07:40

    ISR的上下文保存和恢復(fù)是如何完成的?

    函數(shù):ifxCPU_enableInterrupts ();如果我讓更高優(yōu)先級(jí)的 ISR 中斷優(yōu)先級(jí)較低的 ISR,那么 ISR 的上下文保存和恢復(fù)是如何完成的?
    發(fā)表于 01-22 06:28

    ChatGLM3-6B在CPU上的INT4量化和部署

    ChatGLM3 是智譜 AI 和清華大學(xué) KEG 實(shí)驗(yàn)室聯(lián)合發(fā)布的新一代對(duì)話預(yù)訓(xùn)練模型。ChatGLM3-6BChatGLM3 系列中的開(kāi)源模型,在填寫問(wèn)卷進(jìn)行登記后亦允許免費(fèi)商業(yè)使用。
    的頭像 發(fā)表于 01-05 09:36 ?836次閱讀
    <b class='flag-5'>ChatGLM3-6B</b>在CPU上的INT4量化和部署

    FreeRTOS系列技術(shù)文章:上下文切換

    嵌入式實(shí)時(shí)操作系統(tǒng)(RTOS)中的上下文切換是指保存和恢復(fù)任務(wù)的狀態(tài),以使調(diào)度程序能夠切換到另一個(gè)任務(wù),從而促進(jìn)多任務(wù)處理。
    的頭像 發(fā)表于 11-21 15:48 ?1079次閱讀

    基于顯式證據(jù)推理的few-shot關(guān)系抽取CoT

    最近,上下文學(xué)習(xí)策略已被證明在沒(méi)有訓(xùn)練的情況下顯示出顯著的結(jié)果。很少有研究利用上下文學(xué)習(xí)進(jìn)行zero-shot信息提取。不幸的是,推理的證據(jù)在思維鏈提示的構(gòu)建過(guò)程中沒(méi)有被考慮或隱式建模。
    的頭像 發(fā)表于 11-20 17:44 ?772次閱讀
    基于顯式證據(jù)<b class='flag-5'>推理</b>的few-shot關(guān)系抽取CoT

    全新近似注意力機(jī)制HyperAttention:對(duì)長(zhǎng)上下文友好、LLM推理提速50%

    本文介紹了一項(xiàng)近似注意力機(jī)制新研究,耶魯大學(xué)、谷歌研究院等機(jī)構(gòu)提出了 HyperAttention,使 ChatGLM2 在 32k 上下文長(zhǎng)度上的推理時(shí)間快了 50%。 Transf
    的頭像 發(fā)表于 11-20 09:15 ?545次閱讀
    全新近似注意力機(jī)制HyperAttention:對(duì)長(zhǎng)<b class='flag-5'>上下文</b>友好、LLM<b class='flag-5'>推理</b><b class='flag-5'>提速</b>50%