0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

號稱全球最強(qiáng)開源模型 ——Qwen2.5 系列震撼來襲!PerfXCloud同步上線,快來體驗(yàn)!

胡優(yōu)妮 ? 來源:jf_33463055 ? 作者:jf_33463055 ? 2024-09-25 16:52 ? 次閱讀

9月19日凌晨,阿里通義千問正式開源Qwen2.5系列大模型最新發(fā)布包括了語言模型Qwen2.5,以及專門針對編程的Qwen2.5-Coder和數(shù)學(xué)的Qwen2.5-Math模型。PerfXCloud(澎峰云)大模型開發(fā)與服務(wù)平臺第一時間支持Qwen2.5 72B并在平臺完成上線,趕快來體驗(yàn)吧!

Qwen2.5系列模型

更大的訓(xùn)練數(shù)據(jù)集:Qwen2.5語言模型的所有尺寸都在最新的大規(guī)模數(shù)據(jù)集上進(jìn)行了預(yù)訓(xùn)練,該數(shù)據(jù)集包含多達(dá)18Ttokens。相較于Qwen2,Qwen2.5獲得了顯著更多的知識(MMLU:85+),并在編程能力(HumanEval 85+)和數(shù)學(xué)能力(MATH 80+)方面有了大幅提升。

更強(qiáng)的指令遵循能力:新模型在指令執(zhí)行、生成長文本(超過8K標(biāo)記)、理解結(jié)構(gòu)化數(shù)據(jù)(例如表格)以及生成結(jié)構(gòu)化輸出特別是JSON方面取得了顯著改進(jìn)。Qwen2.5模型總體上對各種system prompt更具適應(yīng)性,增強(qiáng)了角色扮演實(shí)現(xiàn)和聊天機(jī)器人的條件設(shè)置功能。

長文本支持能力:與Qwen2類似,Qwen2.5語言模型支持高達(dá)128K tokens,并能生成最多8K tokens的內(nèi)容。

強(qiáng)大的多語言能力:它們同樣保持了對包括中文、英文、法文、西班牙文、葡萄牙文、德文、意大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等29種以上語言的支持。

專業(yè)領(lǐng)域的專家語言模型能力增強(qiáng):即用于編程的Qwen2.5-Coder和用于數(shù)學(xué)的Qwen2.5-Math,相比其前身CodeQwen1.5和Qwen2-Math有了實(shí)質(zhì)性的改進(jìn)。具體來說,Qwen2.5-Coder在包含5.5T tokens編程相關(guān)數(shù)據(jù)上進(jìn)行了訓(xùn)練,使即使較小的編程專用模型也能在編程評估基準(zhǔn)測試中表現(xiàn)出媲美大型語言模型的競爭力。同時,Qwen2.5-Math支持中文和英文,并整合了多種推理方法,包括CoT(Chain of Thought)、PoT(Program of Thought)和TIR(Tool-Integrated Reasoning)。

wKgZombzzuyAIeM5AADwdHdI9ZU839.png

Qwen2.5-72B在多個基準(zhǔn)測試中的結(jié)果

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    3153

    瀏覽量

    42096
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3038

    瀏覽量

    48389
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2156

    瀏覽量

    2012
收藏 人收藏

    評論

    相關(guān)推薦

    零一萬物正式開源Yi-Coder系列模型 PerfXCloud火速支持等你體驗(yàn)!

    今日,零一萬物宣告正式開源Yi-Coder系列模型:Yi-Coder 1.5B和Yi-Coder 9B,PerfXCloud(澎峰云)大模型
    的頭像 發(fā)表于 09-05 16:07 ?189次閱讀
    零一萬物正式<b class='flag-5'>開源</b>Yi-Coder<b class='flag-5'>系列</b><b class='flag-5'>模型</b> <b class='flag-5'>PerfXCloud</b>火速支持等你體驗(yàn)!

    PerfXCloud 重大更新 端側(cè)多模態(tài)模型 MiniCPM-Llama3-V 2.5 閃亮上架

    近日,PerfXCloud完成重大更新,上架了面壁小鋼炮 MiniCPM 系列的端側(cè)多模態(tài)模型 MiniCPM-Llama3-V 2.5,現(xiàn)已對平臺用戶免費(fèi)開放體驗(yàn)!
    的頭像 發(fā)表于 08-27 18:20 ?390次閱讀
    <b class='flag-5'>PerfXCloud</b> 重大更新  端側(cè)多模態(tài)<b class='flag-5'>模型</b> MiniCPM-Llama3-V <b class='flag-5'>2.5</b> 閃亮上架

    阿里Qwen2-Math系列震撼發(fā)布,數(shù)學(xué)推理能力領(lǐng)跑全球

    阿里巴巴近期震撼發(fā)布了Qwen2-Math系列模型,這一系列模型基于其強(qiáng)大的
    的頭像 發(fā)表于 08-12 15:19 ?581次閱讀

    PerfXCloud順利接入MOE大模型DeepSeek-V2

    今日,在 PerfXCloud 重磅更新支持 llama 3.1 之后,其平臺再度實(shí)現(xiàn)重大升級!目前,已順利接入被譽(yù)為全球最強(qiáng)的 MOE 大模型 DeepSeek-V2 ,已在
    的頭像 發(fā)表于 07-27 10:08 ?477次閱讀
    <b class='flag-5'>PerfXCloud</b>順利接入MOE大<b class='flag-5'>模型</b>DeepSeek-V2

    PerfXCloud平臺成功接入Meta Llama3.1

    近日,Meta對外宣布推出迄今為止最強(qiáng)大的開源模型——Llama3.1 405B,同時還發(fā)布了全新優(yōu)化升級的70B和8B版本,技術(shù)革新的浪潮再次洶涌來襲!在此,我們滿懷欣喜地向您宣告,
    的頭像 發(fā)表于 07-25 10:26 ?464次閱讀

    PerfXCloud模型開發(fā)與部署平臺開放注冊

    PerfXCloud?介紹 PerfXCloud是澎峰科技為開發(fā)者和企業(yè)量身打造的AI開發(fā)和部署平臺。它專注于滿足大模型的微調(diào)和推理需求,為用戶提供極致便捷的一鍵部署體驗(yàn)。 PerfXClou
    的頭像 發(fā)表于 07-02 10:27 ?279次閱讀
    <b class='flag-5'>PerfXCloud</b>大<b class='flag-5'>模型</b>開發(fā)與部署平臺開放注冊

    PerfXCloud-AI大模型夏日狂歡來襲,向基石用戶贈送 ∞ 億Token!

    PerfXCloud致力于為用戶提供極致便捷的一鍵部署體驗(yàn),以及全面保護(hù)客戶私有模型權(quán)益和數(shù)據(jù)安全。
    的頭像 發(fā)表于 06-25 16:54 ?259次閱讀
    <b class='flag-5'>PerfXCloud</b>-AI大<b class='flag-5'>模型</b>夏日狂歡<b class='flag-5'>來襲</b>,向基石用戶贈送 ∞ 億Token!

    阿里通義千問Qwen2大模型發(fā)布并同步開源

    阿里巴巴集團(tuán)旗下的通義千問團(tuán)隊宣布,全新的Qwen2大模型正式發(fā)布,并在全球知名的開源平臺Hugging Face和ModelScope上同步
    的頭像 發(fā)表于 06-11 15:33 ?965次閱讀

    阿里通義千問Qwen2大模型發(fā)布

    阿里巴巴最近發(fā)布了其通義千問系列的新成員——Qwen2大模型,并在Hugging Face和ModelScope兩大平臺上實(shí)現(xiàn)了同步開源。這
    的頭像 發(fā)表于 06-07 15:59 ?618次閱讀

    通義千問開源千億級參數(shù)模型

    通義千問近日開源了其首個千億級參數(shù)模型Qwen1.5-110B,這是其全系列中首個達(dá)到千億級別的開源模型
    的頭像 發(fā)表于 05-08 11:01 ?620次閱讀

    通義千問推出1100億參數(shù)開源模型

    通義千問近日震撼發(fā)布1100億參數(shù)的開源模型Qwen1.5-110B,這一舉措標(biāo)志著通義千問在AI領(lǐng)域邁出了重大步伐。該模型成為通義千問全
    的頭像 發(fā)表于 05-06 10:49 ?480次閱讀

    Meta推出最強(qiáng)開源模型Llama 3 要挑戰(zhàn)GPT

    Meta推出最強(qiáng)開源模型Llama 3 要挑戰(zhàn)GPT Facebook母公司Meta Platforms(META.US)推出了開源AI大模型“Llama”的最新升級版本“Llama
    的頭像 發(fā)表于 04-19 17:00 ?722次閱讀

    號稱全球最強(qiáng)開源AI模型DBRX登場

    洞見分析
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年03月28日 11:10:51

    新火種AI|谷歌深夜炸彈!史上最強(qiáng)開源模型Gemma,打響新一輪AI之戰(zhàn)

    作者:文子 編輯:小迪 谷歌,2024年卷出新高度。 全球最強(qiáng)開源模型,Gemma重燃戰(zhàn)局 短短12天連放三次大招,谷歌AI更新迭代之快,讓人始料未及。 當(dāng)?shù)貢r間2月21日,谷歌毫無預(yù)兆地發(fā)布
    的頭像 發(fā)表于 02-23 10:21 ?301次閱讀
    新火種AI|谷歌深夜炸彈!史上<b class='flag-5'>最強(qiáng)開源</b><b class='flag-5'>模型</b>Gemma,打響新一輪AI之戰(zhàn)

    谷歌發(fā)布全球最強(qiáng)開源模型Gemma

    谷歌近日宣布,其全新開源模型Gemma正式亮相。Gemma被譽(yù)為全球性能最強(qiáng)大、同時也是最輕量級的模型
    的頭像 發(fā)表于 02-22 14:51 ?662次閱讀