0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

PerfXCloud順利接入MOE大模型DeepSeek-V2

perfxlab ? 來源:perfxlab ? 2024-07-27 10:08 ? 次閱讀

今日,在 PerfXCloud 重磅更新支持 llama 3.1 之后,其平臺再度實現重大升級!目前,已順利接入被譽為全球最強的 MOE 大模型DeepSeek-V2,已在 PerfXCloud(澎峰云)官網的體驗中心對平臺用戶免費開放體驗。

DeepSeek-V2

DeepSeek-V2是強大的專家混合(MOE)語言模型,在目前大模型主流榜單中,DeepSeek-V2 綜合能力表現出色:

中文綜合能力(AlignBench)開源模型中最強,與GPT-4-Turbo,文心4.0等閉源模型在評測中處于同一梯隊

英文綜合能力(MT-Bench)與最強的開源模型LLaMA3-70B同處第一梯隊,超過最強MOE開源模型Mixtral 8x22B

知識、數學、推理、編程等榜單結果也位居前列

支持128K上下文窗口

wKgZomakVtiAA-GLAAGKlzEyOjY270.png

PerfXCloud

PerfXCloud是澎峰科技開發(fā)者和企業(yè)量身打造的AI開發(fā)和部署平臺。它專注于滿足大模型的微調和推理需求,為用戶提供極致便捷的一鍵部署體驗。

PerfXCloud為算力中心提供大模型AI科學與工程計算的整體運營解決方案,助力算力中心升級成為“AI超級工廠”

wKgaomakVtiAMNCmAAKqFAnrxaY517.png

PerfXCloud模型廣場

PerfXCloud介紹 目前,PerfXCloud(澎峰云)已面向基石用戶免費開放DeepSeek-V2236B的API調用接口。趕快注冊申請成為基石用戶來體驗吧!

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 開源
    +關注

    關注

    3

    文章

    3215

    瀏覽量

    42310
  • 語言模型
    +關注

    關注

    0

    文章

    501

    瀏覽量

    10236
  • 大模型
    +關注

    關注

    2

    文章

    2274

    瀏覽量

    2356

原文標題:PerfXCloud 再度升級,免費開放體驗全球頂尖 MOE 大模型 DeepSeek-V2 236B!

文章出處:【微信號:perfxlab,微信公眾號:perfxlab】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    騰訊發(fā)布開源MoE大語言模型Hunyuan-Large

    近日,騰訊公司宣布成功推出業(yè)界領先的開源MoE(Mixture of Experts,專家混合)大語言模型——Hunyuan-Large。這款模型不僅在參數量上刷新了業(yè)界紀錄,更在效果上展現出了卓越
    的頭像 發(fā)表于 11-06 10:57 ?197次閱讀

    PerfXCloud重磅升級 阿里開源最強視覺語言模型Qwen2-VL-7B強勢上線!

    「重磅通知」 :PerfXCloud 再度華麗升級,現已全面支持迄今為止 最為卓越的開源視覺模型 Qwen2-VL-7B 。這一重大突破將為用戶帶來更加震撼的視覺體驗,進一步拓展創(chuàng)意的邊界,快來
    的頭像 發(fā)表于 10-23 11:07 ?208次閱讀
    <b class='flag-5'>PerfXCloud</b>重磅升級  阿里開源最強視覺語言<b class='flag-5'>模型</b>Qwen<b class='flag-5'>2</b>-VL-7B強勢上線!

    號稱全球最強開源模型 ——Qwen2.5 系列震撼來襲!PerfXCloud同步上線,快來體驗!

    。PerfXCloud(澎峰云)大模型開發(fā)與服務平臺第一時間支持 Qwen2.5 72B 并在平臺完成上線,趕快來體驗吧! Qwen2.5系列模型 更大的訓練數據集: Qwen2.5語言模型
    的頭像 發(fā)表于 09-25 16:52 ?486次閱讀
    號稱全球最強開源<b class='flag-5'>模型</b> ——Qwen2.5 系列震撼來襲!<b class='flag-5'>PerfXCloud</b>同步上線,快來體驗!

    零一萬物正式開源Yi-Coder系列模型 PerfXCloud火速支持等你體驗!

    今日,零一萬物宣告正式開源Yi-Coder系列模型:Yi-Coder 1.5B和Yi-Coder 9B,PerfXCloud(澎峰云)大模型開發(fā)與服務平臺第一時間支持并在平臺完成上線,趕快來體驗吧
    的頭像 發(fā)表于 09-05 16:07 ?255次閱讀
    零一萬物正式開源Yi-Coder系列<b class='flag-5'>模型</b> <b class='flag-5'>PerfXCloud</b>火速支持等你體驗!

    PerfXCloud 重大更新 端側多模態(tài)模型 MiniCPM-Llama3-V 2.5 閃亮上架

    近日,PerfXCloud完成重大更新,上架了面壁小鋼炮 MiniCPM 系列的端側多模態(tài)模型 MiniCPM-Llama3-V 2.5,現已對平臺用戶免費開放體驗!
    的頭像 發(fā)表于 08-27 18:20 ?457次閱讀
    <b class='flag-5'>PerfXCloud</b> 重大更新  端側多模態(tài)<b class='flag-5'>模型</b> MiniCPM-Llama3-<b class='flag-5'>V</b> 2.5 閃亮上架

    PerfXCloud平臺成功接入Meta Llama3.1

    近日,Meta對外宣布推出迄今為止最強大的開源模型——Llama3.1 405B,同時還發(fā)布了全新優(yōu)化升級的70B和8B版本,技術革新的浪潮再次洶涌來襲!在此,我們滿懷欣喜地向您宣告,PerfXCloud平臺現已成功接入Llam
    的頭像 發(fā)表于 07-25 10:26 ?568次閱讀

    PerfXCloud模型人工智能生態(tài)技術大會圓滿落幕

    ——PerfXCloud模型人工智能生態(tài)技術大會。本次會議匯聚了政府領導、行業(yè)專家及企業(yè)代表,共同探討人工智能的未來趨勢,見證PerfXCloud平臺的創(chuàng)新技術。與會的重要機構和企業(yè)包括國家超算長沙中心、國家超算
    的頭像 發(fā)表于 07-18 16:47 ?853次閱讀

    在Dify中使用PerfXCloud模型推理服務

    近日,Dify全面接入了Perf XCloud,借助Perf XCloud提供的大模型調用服務,用戶可在Dify中構建出更加經濟、高效的LLM應用。
    的頭像 發(fā)表于 07-15 09:28 ?782次閱讀
    在Dify中使用<b class='flag-5'>PerfXCloud</b>大<b class='flag-5'>模型</b>推理服務

    PerfXCloud模型開發(fā)與部署平臺開放注冊

    PerfXCloud?介紹 PerfXCloud是澎峰科技為開發(fā)者和企業(yè)量身打造的AI開發(fā)和部署平臺。它專注于滿足大模型的微調和推理需求,為用戶提供極致便捷的一鍵部署體驗。 PerfXClou
    的頭像 發(fā)表于 07-02 10:27 ?337次閱讀
    <b class='flag-5'>PerfXCloud</b>大<b class='flag-5'>模型</b>開發(fā)與部署平臺開放注冊

    PerfXCloud-AI大模型夏日狂歡來襲,向基石用戶贈送 ∞ 億Token!

    PerfXCloud致力于為用戶提供極致便捷的一鍵部署體驗,以及全面保護客戶私有模型權益和數據安全。
    的頭像 發(fā)表于 06-25 16:54 ?286次閱讀
    <b class='flag-5'>PerfXCloud</b>-AI大<b class='flag-5'>模型</b>夏日狂歡來襲,向基石用戶贈送 ∞ 億Token!

    昆侖萬維開源2千億稀疏大模型Skywork-MoE

    近日,昆侖萬維公司宣布開源一款名為Skywork-MoE的稀疏大模型,該模型擁有高達2千億參數,不僅性能強勁,而且推理成本更低,為人工智能領域帶來了新的突破。
    的頭像 發(fā)表于 06-04 14:44 ?525次閱讀

    基于NVIDIA Megatron Core的MOE LLM實現和訓練優(yōu)化

    本文將分享阿里云人工智能平臺 PAI 團隊與 NVIDIA Megatron-Core 團隊在 MoE (Mixture of Experts) 大語言模型(LLM)實現與訓練優(yōu)化上的創(chuàng)新工作。
    的頭像 發(fā)表于 03-22 09:50 ?681次閱讀
    基于NVIDIA Megatron Core的<b class='flag-5'>MOE</b> LLM實現和訓練優(yōu)化

    昆侖萬維發(fā)布新版MoE大語言模型天工2.0

    昆侖萬維科技今日震撼發(fā)布全新升級的「天工2.0」MoE大語言模型以及配套的新版「天工AI智能助手」APP。此次更新標志著國內首個搭載MoE架構的千億級參數大語言模型AI應用正式面向廣大
    的頭像 發(fā)表于 02-06 16:19 ?1211次閱讀

    幻方量化發(fā)布了國內首個開源MoE模型—DeepSeekMoE

    幻方量化旗下組織深度求索發(fā)布了國內首個開源 MoE模型 —— DeepSeekMoE,全新架構,免費商用。
    的頭像 發(fā)表于 01-23 11:28 ?1406次閱讀
    幻方量化發(fā)布了國內首個開源<b class='flag-5'>MoE</b>大<b class='flag-5'>模型</b>—DeepSeekMoE

    對標OpenAI GPT-4,MiniMax國內首個MoE大語言模型全量上線

    MoE 架構全稱專家混合(Mixture-of-Experts),是一種集成方法,其中整個問題被分為多個子任務,并將針對每個子任務訓練一組專家。MoE 模型將覆蓋不同學習者(專家)的不同輸入數據。
    的頭像 發(fā)表于 01-16 15:34 ?832次閱讀
    對標OpenAI GPT-4,MiniMax國內首個<b class='flag-5'>MoE</b>大語言<b class='flag-5'>模型</b>全量上線