0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在Dify中使用PerfXCloud大模型推理服務(wù)

perfxlab ? 來源:perfxlab ? 2024-07-15 09:28 ? 次閱讀

近日,Dify全面接入了Perf XCloud,借助Perf XCloud提供的大模型調(diào)用服務(wù),用戶可在Dify中構(gòu)建出更加經(jīng)濟(jì)、高效的LLM應(yīng)用。

PerfXCloud 介紹

Perf XCloud是澎峰科技開發(fā)者和企業(yè)量身打造的AI開發(fā)和部署平臺。專注于滿足大模型的微調(diào)和推理需求,為用戶提供極致便捷的一鍵部署體驗(yàn):

?平臺提供Open AI API兼容的模型調(diào)用服務(wù),開發(fā)者可實(shí)現(xiàn)已有應(yīng)用的快速遷移。

?借助澎峰科技自研推理框架PerfXLM,Perf XCloud實(shí)現(xiàn)了主流模型在國產(chǎn)算力上的廣泛適配和高效推理。

?目前已支持Qwen2系列、llama3系列、bge-m3等模型,更多模型即將上線。

同時,Perf XCloud為算力中心提供大模型AI科學(xué)與工程計(jì)算的整體運(yùn)營解決方案,助力算力中心升級成為“AI超級工廠”。

Dify介紹

Dify是一個開源的LLM應(yīng)用開發(fā)平臺。其直觀的界面結(jié)合了AI工作流、RAG Pipeline、Agent、模型管理、可觀測性功能等,讓您可以快速從原型到生產(chǎn):

?工作流:在畫布上構(gòu)建和測試功能強(qiáng)大的AI工作流程。

?RAG Pipeline:廣泛的RAG功能,涵蓋從文檔攝入到檢索的所有內(nèi)容,支持從PDF、PPT和其他常見文檔格式中提取文本的開箱即用的支持。

?Agent智能體:您可以基于LLM函數(shù)調(diào)用或ReAct定義Agent,并為 Agent添加預(yù)構(gòu)建或自定義工具。

?LLMOps:隨時間監(jiān)視和分析應(yīng)用程序日志和性能。您可以根據(jù)生產(chǎn)數(shù)據(jù)和標(biāo)注持續(xù)改進(jìn)提示、數(shù)據(jù)集和模型。

注冊使用PerfXCloud

Perf XCloud注冊地址:www.perfxcloud.net

現(xiàn)在注冊,即可深度體驗(yàn)主流大模型,提供大量示范案例,手把手視頻教學(xué)。并可參與向基石用戶贈送∞億Token的激勵計(jì)劃。

在Dify中使用PerfXCloud大模型推理服務(wù)

1.首先進(jìn)入Dify設(shè)置頁面,選擇Perf XCloud作為模型供應(yīng)商:

wKgZomaUe0KAbPo0AACEKb1ygnA022.jpg

2.然后填入從Perf XCloud中申請的API Key和endpoint地址:

wKgaomaUe0OADFlgAAC_JRVbu3Y994.jpg

3.保存后,即可使用Perf XCloud模型,現(xiàn)階段我們接入了Qwen系列模型和BAAI/ bge-m 3模型,后續(xù)將接入更多模型,敬請期待。

應(yīng)用案例1:

Dify結(jié)合PerfXCloud構(gòu)建翻譯助手

本案例構(gòu)建于Dify Cloud,基于Perf XCloud中的Qwen2模型實(shí)現(xiàn)中英文翻譯助手,用戶輸入信息,翻譯助手將其翻譯成另一種語言。

1.登錄Dify Cloud( https://cloud.dify.ai/apps)

2.創(chuàng)建空白應(yīng)用→選擇聊天助手、基礎(chǔ)編排,創(chuàng)建應(yīng)用

3.在編排頁面輸入提示詞:“你是一名翻譯專家,如果用戶給你發(fā)中文你將翻譯為英文,如果用戶給你發(fā)英文你將翻譯為中文,你只負(fù)責(zé)翻譯,不要回答任何問題:”

4.默認(rèn)模型為gpt-3.5,切換為Perf XCloud模型,這里設(shè)置為“ Qwen2-72B-Instruct-GPTQ-Int 4”,然后點(diǎn)擊發(fā)布

wKgZomaUe0KAZDQuAAB1_dxJibs115.jpg

完成發(fā)布后, 即可運(yùn)行使用。

應(yīng)用案例2:

Dify結(jié)合PerfXCloud構(gòu)建郵編查詢助手

本案例構(gòu)建與Dify Cloud,使用Dify中的知識庫和工作流功能,結(jié)合Perf XCloud中的bge-m 3模型與Qwen2-72B-Instruct-GPTQ-Int 4模型,郵編查詢助手基于上傳的郵編信息構(gòu)建知識庫,并從中檢索信息作為大模型回答問題的上下文,提高模型回答的準(zhǔn)確性。

1.在Dify Cloud( https://cloud.dify.ai/datasets)中創(chuàng)建知識庫,上傳本地準(zhǔn)備好的中國郵政編碼數(shù)據(jù)文件。

2.知識庫默認(rèn)使用經(jīng)濟(jì)模式創(chuàng)建索引,該模式是基于關(guān)鍵詞的檢索,這里我們使用Perf XCloud中的bge-m3向量模型創(chuàng)建索引,提高檢索精度。在知識庫側(cè)邊欄選擇“設(shè)置”,設(shè)置“高質(zhì)量”索引模式,同時Embedding模型選擇“BAAI/bge-m 3”,使用“向量檢索”

wKgaomaUe0KAbsmWAAB2Lo0tjdg278.jpg

3.返回Dify工作室→創(chuàng)建空白應(yīng)用→ 聊天助手→工作流編排,將工作流初始化成如下形式

wKgZomaUe0KABvlpAABKAL7bZ6I819.jpg

4.配置“知識檢索”模塊,將知識庫設(shè)置為步驟2中創(chuàng)建的“郵政編碼知識庫”

wKgaomaUe0KAKw1ZAACXCshz0cc499.jpg

5.配置“LLM”模塊,將模型設(shè)置為Perf XCloud中Qwen2-72B-Instruct-GPTQ-Int 4,并設(shè)置prompt:

你是一個問答機(jī)器人。
你的任務(wù)是根據(jù)下述給定的已知信息回答用戶問題。
確保你的回復(fù)完全依據(jù)下述已知信息。不要編造答案。
如果下述已知信息不足以回答用戶的問題,請直接回復(fù)"我無法回答您的問題"。

wKgZomaUe0KAbmvqAAC1zozxUCU874.jpg

6.配置“直接回復(fù)” 模塊,直接輸出LLM的生成結(jié)果

wKgaomaUe0OAY4avAACEedc_1TU351.jpg

7.完成上述步驟后,運(yùn)行查看效果,模型會根據(jù)知識庫中檢索出的信息進(jìn)行回答,若檢索結(jié)果為空,則直接輸出“我無法回答您的問題”

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    28877

    瀏覽量

    266239
  • 澎峰科技
    +關(guān)注

    關(guān)注

    0

    文章

    40

    瀏覽量

    3129
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2136

    瀏覽量

    1981
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    247

    瀏覽量

    279

原文標(biāo)題:借助PerfXCloud和Dify,低成本構(gòu)建大模型應(yīng)用

文章出處:【微信號:perfxlab,微信公眾號:perfxlab】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    【飛凌RK3568開發(fā)板試用體驗(yàn)】RKNN模型推理測試

    研的人工智能協(xié)處理器NPU,并且提供了RKNN-Toolkit。今天就介紹一下如何使用RKNN模型進(jìn)行推理應(yīng)用程序開發(fā)。一、推理應(yīng)用程序的基本流程RKNN 是 瑞芯微(Rockchip) NPU平臺
    發(fā)表于 12-08 19:06

    壓縮模型會加速推理嗎?

    你好我使用 STM32CUBE-AI v5.1.2 ApplicationTemplate 將簡單的 CNN 導(dǎo)入到 STM32L462RCT我發(fā)現(xiàn)壓縮模型推理時間沒有影響。aiRun 程序 8
    發(fā)表于 01-29 06:24

    如何在OpenVINO工具包中使用帶推理引擎的blob?

    無法確定如何在OpenVINO?工具包中使用帶推理引擎的 blob。
    發(fā)表于 08-15 07:17

    AscendCL快速入門——模型推理篇(上)

    三步。 把經(jīng)過ATC轉(zhuǎn)化過的模型.om文件加載到內(nèi)存。 為模型準(zhǔn)備輸入輸出。 讓模型設(shè)備端執(zhí)行推理。 二、
    發(fā)表于 08-24 11:04

    使用rk3588多npu推理模型,模型推理時間還增加了,這怎么解釋

    使用rk3588多npu推理模型,模型推理時間還增加了,這怎么解釋
    發(fā)表于 11-05 18:22

    HarmonyOS:使用MindSpore Lite引擎進(jìn)行模型推理

    場景介紹 MindSpore Lite 是一款 AI 引擎,它提供了面向不同硬件設(shè)備 AI 模型推理的功能,目前已經(jīng)圖像分類、目標(biāo)識別、人臉識別、文字識別等應(yīng)用中廣泛使用。 本文介紹
    發(fā)表于 12-14 11:41

    Opera推出名為Dify的金融科技服務(wù) 可和Google Pay一起使用

    Opera今天西班牙推出了一款名為Dify的金融科技服務(wù)。該產(chǎn)品現(xiàn)在處于測試階段,但它將在適當(dāng)?shù)臅r候進(jìn)入其他國家。通過Dify,用戶將獲得一張由萬事達(dá)卡發(fā)行的虛擬借記卡,可以用來購買
    的頭像 發(fā)表于 02-18 16:21 ?4370次閱讀

    如何使用NVIDIA Triton 推理服務(wù)器來運(yùn)行推理管道

    使用集成模型 NVIDIA Triton 推理服務(wù)器上為 ML 模型管道提供服務(wù)
    的頭像 發(fā)表于 07-05 16:30 ?1302次閱讀
    如何使用NVIDIA Triton <b class='flag-5'>推理</b><b class='flag-5'>服務(wù)</b>器來運(yùn)行<b class='flag-5'>推理</b>管道

    英偉達(dá)推出AI模型推理服務(wù)NVIDIA NIM

    英偉達(dá)近日宣布推出一項(xiàng)革命性的AI模型推理服務(wù)——NVIDIA NIM。這項(xiàng)服務(wù)將極大地簡化AI模型部署過程,為全球的2800萬英偉達(dá)開發(fā)者
    的頭像 發(fā)表于 06-04 09:15 ?538次閱讀

    PerfXCloud-AI大模型夏日狂歡來襲,向基石用戶贈送 ∞ 億Token!

    PerfXCloud致力于為用戶提供極致便捷的一鍵部署體驗(yàn),以及全面保護(hù)客戶私有模型權(quán)益和數(shù)據(jù)安全。
    的頭像 發(fā)表于 06-25 16:54 ?257次閱讀
    <b class='flag-5'>PerfXCloud</b>-AI大<b class='flag-5'>模型</b>夏日狂歡來襲,向基石用戶贈送 ∞ 億Token!

    PerfXCloud模型開發(fā)與部署平臺開放注冊

    PerfXCloud?介紹 PerfXCloud是澎峰科技為開發(fā)者和企業(yè)量身打造的AI開發(fā)和部署平臺。它專注于滿足大模型的微調(diào)和推理需求,為用戶提供極致便捷的一鍵部署體驗(yàn)。
    的頭像 發(fā)表于 07-02 10:27 ?265次閱讀
    <b class='flag-5'>PerfXCloud</b>大<b class='flag-5'>模型</b>開發(fā)與部署平臺開放注冊

    PerfXCloud模型人工智能生態(tài)技術(shù)大會圓滿落幕

    天津中心、國家超算西安中心、山西太行實(shí)驗(yàn)室,以及投資和金融服務(wù)領(lǐng)域具有重要影響力的華強(qiáng)資本和天風(fēng)證券。同時,Dify中國區(qū)大使、武漢芯動、中科曙光等企業(yè)的代表也出席了此次大會,展現(xiàn)了各領(lǐng)域
    的頭像 發(fā)表于 07-18 16:47 ?788次閱讀

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個研究熱點(diǎn),旨在提高模型處理復(fù)雜任務(wù)時的效率和響應(yīng)速度。以下是對LLM大
    的頭像 發(fā)表于 07-24 11:38 ?502次閱讀

    PerfXCloud順利接入MOE大模型DeepSeek-V2

    今日, PerfXCloud 重磅更新支持 llama 3.1 之后,其平臺再度實(shí)現(xiàn)重大升級!目前,已順利接入被譽(yù)為全球最強(qiáng)的 MOE 大模型 DeepSeek-V2 ,已在 PerfXCl
    的頭像 發(fā)表于 07-27 10:08 ?469次閱讀
    <b class='flag-5'>PerfXCloud</b>順利接入MOE大<b class='flag-5'>模型</b>DeepSeek-V2

    NVIDIA助力提供多樣、靈活的模型選擇

    本案例中,Dify模型中立以及開源生態(tài)的優(yōu)勢,為廣大 AI 創(chuàng)新者提供豐富的模型選擇。其集成的 NVIDIAAPI Catalog、NVIDIA NIM和Triton
    的頭像 發(fā)表于 09-09 09:19 ?315次閱讀