0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何最好地使用所有可用的 LLM 工具

Qxwdz168 ? 來源:計(jì)算機(jī)視覺芯片設(shè)計(jì) ? 2023-05-23 17:22 ? 次閱讀

許多企業(yè)(OpenAI、AI21、CoHere 等)正在提供 LLM 作為服務(wù),因?yàn)樗鼈冊(cè)谏虡I(yè)、科學(xué)和金融環(huán)境中具有誘人的潛力。雖然 GPT-4 和其他 LLM 在諸如問答等任務(wù)上展示了破紀(jì)錄的性能,但它們?cè)诟咄掏铝繎?yīng)用程序中的使用可能會(huì)非常昂貴。例如,使用 GPT-4 協(xié)助客戶服務(wù)可能會(huì)使小型企業(yè)每月花費(fèi)超過 21,000 美元,而 ChatGPT 預(yù)計(jì)每天花費(fèi)超過 700,000 美元。使用最大的 LLM 需要付出高昂的貨幣代價(jià),并對(duì)環(huán)境和社會(huì)產(chǎn)生嚴(yán)重的負(fù)面影響。

研究表明,許多 LLM 可以通過 API 以各種定價(jià)獲得。使用 LLM API 的成本通常分為三個(gè)部分:

提示成本(與提示的持續(xù)時(shí)間成比例)
生成成本(與生成長(zhǎng)度成比例)
每個(gè)問題的固定費(fèi)用。
鑒于價(jià)格和質(zhì)量的廣泛差異,從業(yè)者可能很難決定如何最好地使用所有可用的 LLM 工具。此外,如果服務(wù)中斷,則依賴單個(gè) API 提供者是不可靠的,這可能發(fā)生在意外高需求的情況下。

上傳失敗,網(wǎng)絡(luò)異常。

重試

當(dāng)前模型級(jí)聯(lián)和 FrugalML 等模型集成范例未考慮 LLM 的局限性,這些范例是為具有固定標(biāo)簽集的預(yù)測(cè)任務(wù)開發(fā)的。

斯坦福大學(xué)最近的研究提出了一個(gè)名為 FrugalGPT 的預(yù)算友好型框架的概念,它利用 LLM API 來處理自然語(yǔ)言查詢。

及時(shí)適應(yīng)、LLM 近似和 LLM 級(jí)聯(lián)是降低成本的三種主要方法。為了節(jié)省開支,提示適應(yīng)調(diào)查了確定哪些提示最有效的方法。通過近似復(fù)雜且昂貴的 LLM,可以開發(fā)更簡(jiǎn)單且更具成本效益的替代方案,其性能與原始方案一樣好。 LLM 級(jí)聯(lián)的關(guān)鍵思想是為各種查詢動(dòng)態(tài)選擇合適的 LLM API。

實(shí)施并評(píng)估了基于 LLM 級(jí)聯(lián)構(gòu)建的 FrugalGPT 基本版本,以展示這些想法的潛力。對(duì)于每個(gè)數(shù)據(jù)集和任務(wù),F(xiàn)rugalGPT 學(xué)習(xí)如何自適應(yīng)地將數(shù)據(jù)集中的問題分類到 LLM 的各種組合,例如 ChatGPT、GPT-3 和 GPT-4。與最好的單個(gè) LLM API 相比,F(xiàn)rugalGPT 節(jié)省了高達(dá) 98% 的推理成本,同時(shí)在下游任務(wù)上保持相同的性能。另一方面,F(xiàn)rugalGPT 可以以相同的價(jià)格實(shí)現(xiàn)高達(dá) 4% 的性能提升。

FrugalGPT 的 LLM 級(jí)聯(lián)技術(shù)需要對(duì)標(biāo)記示例進(jìn)行訓(xùn)練。此外,為了使級(jí)聯(lián)有效,訓(xùn)練和測(cè)試示例應(yīng)該具有相同或相似的分布。此外,掌握LLM級(jí)聯(lián)也需要時(shí)間和精力。

FrugalGPT 尋求性能和成本之間的平衡,但其他因素,包括延遲、公平性、隱私和環(huán)境影響,在實(shí)踐中更為重要。該團(tuán)隊(duì)認(rèn)為,未來的研究應(yīng)側(cè)重于在不犧牲性能或成本效益的情況下將這些功能納入優(yōu)化方法。 LLM 生成的結(jié)果的不確定性也需要仔細(xì)量化以用于風(fēng)險(xiǎn)關(guān)鍵型應(yīng)用。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • API
    API
    +關(guān)注

    關(guān)注

    2

    文章

    1472

    瀏覽量

    61749
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1200

    瀏覽量

    24619
  • 自然語(yǔ)言
    +關(guān)注

    關(guān)注

    1

    文章

    285

    瀏覽量

    13320
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    264

    瀏覽量

    297

原文標(biāo)題:斯坦福研究人員介紹 FrugalGPT:一種新的 AI 框架,用于 LLM API 處理自然語(yǔ)言查詢

文章出處:【微信號(hào):計(jì)算機(jī)視覺芯片設(shè)計(jì),微信公眾號(hào):計(jì)算機(jī)視覺芯片設(shè)計(jì)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    對(duì)比解碼在LLM上的應(yīng)用

    為了改進(jìn)LLM的推理能力,University of California聯(lián)合Meta AI實(shí)驗(yàn)室提出將Contrastive Decoding應(yīng)用于多種任務(wù)的LLM方法。實(shí)驗(yàn)表明,所提方法能有效改進(jìn)LLM的推理能力。讓我們走進(jìn)
    發(fā)表于 09-21 11:37 ?574次閱讀
    對(duì)比解碼在<b class='flag-5'>LLM</b>上的應(yīng)用

    有什么好用的verilog HDL編輯工具可用?

    有什么好用的verilog HDL編輯工具可用最好能集成實(shí)時(shí)的verilog HDL語(yǔ)法檢測(cè)、自定義模塊識(shí)別觸發(fā)等功能,最好能夠免費(fèi);
    發(fā)表于 04-28 11:00

    部落沖突輔助工具終極推薦:免root離線掛機(jī)【本人用過所有輔助中最好的】

    部落沖突輔助工具終極推薦:免root離線掛機(jī)【本人用過所有輔助中最好的】相信很多小伙伴都玩部落沖突好久了,偶也是,為了節(jié)省時(shí)間、精力升本,有時(shí)候會(huì)借助下工具,哈哈!部落沖突輔助
    發(fā)表于 02-24 11:56

    最好的殺木馬清除工具

    推薦最強(qiáng)最好的殺木馬清除工具AVGAnti-Spyware--極致安全完美防護(hù).針對(duì)因特網(wǎng)上傳播的新一代安全威脅的有效解決方案.確保您的數(shù)據(jù)安全,保護(hù)您的隱私,抵御間諜軟件,廣告軟件,木馬
    發(fā)表于 01-17 13:19 ?47次下載

    最好的最強(qiáng)的殺木馬工具

    最好的最強(qiáng)的殺木馬工具,AVG Anti-Spyware -- 極致安全 完美防護(hù).針對(duì)因特網(wǎng)上傳播的新一代安全威脅的有效解決方案.確保您的數(shù)據(jù)安全,保護(hù)您的隱私,抵御間諜軟件,廣告軟件,
    發(fā)表于 07-17 10:39 ?15次下載

    Microsoft已經(jīng)確認(rèn)它將很快可用所有兼容設(shè)備

    到目前為止,該新功能只能由Windows Insider程序的代表進(jìn)行測(cè)試。誰(shuí)已收到Build 20185的更新。Microsoft已經(jīng)確認(rèn)它將很快可用所有兼容設(shè)備。
    的頭像 發(fā)表于 09-25 16:39 ?2144次閱讀

    如何用旁路工具提升網(wǎng)絡(luò)可用性?

    在將內(nèi)聯(lián)安全工具構(gòu)建到您的網(wǎng)絡(luò)中時(shí),結(jié)合網(wǎng)絡(luò)旁路技術(shù)是避免代價(jià)高昂的網(wǎng)絡(luò)停機(jī)時(shí)間的基本最佳實(shí)踐。簡(jiǎn)而言之,旁路 TAP,也稱為“旁路交換機(jī)”,能夠隨時(shí)管理內(nèi)聯(lián)工具可用性,而無需中斷網(wǎng)絡(luò)或影響業(yè)務(wù)
    的頭像 發(fā)表于 06-25 14:41 ?1298次閱讀

    LLM性能的主要因素

    現(xiàn)在是2023年5月,截止目前,網(wǎng)絡(luò)上已經(jīng)開源了眾多的LLM,如何用較低的成本,判斷LLM的基礎(chǔ)性能,選到適合自己任務(wù)的LLM,成為一個(gè)關(guān)鍵。 本文會(huì)涉及以下幾個(gè)問題: 影響LLM性能
    的頭像 發(fā)表于 05-22 15:26 ?1633次閱讀
    <b class='flag-5'>LLM</b>性能的主要因素

    中國(guó)研究人員提出StructGPT,提高LLM對(duì)結(jié)構(gòu)化數(shù)據(jù)的零樣本推理能力

    盡管結(jié)構(gòu)化數(shù)據(jù)的體量往往非常巨大,但不可能容納輸入提示中的所有數(shù)據(jù)記錄(例如,ChatGPT 的最大上下文長(zhǎng)度為 4096)。將結(jié)構(gòu)化數(shù)據(jù)線性化為 LLM 可以輕松掌握的語(yǔ)句是解決此問題的簡(jiǎn)單方法。工具操作技術(shù)激勵(lì)他們?cè)鰪?qiáng)
    的頭像 發(fā)表于 05-24 16:02 ?2895次閱讀
    中國(guó)研究人員提出StructGPT,提高<b class='flag-5'>LLM</b>對(duì)結(jié)構(gòu)化數(shù)據(jù)的零樣本推理能力

    NVIDIA AI Foundation Models:使用生產(chǎn)就緒型 LLM 構(gòu)建自定義企業(yè)聊天機(jī)器人和智能副駕

    ? 系列基礎(chǔ)模型是一套功能強(qiáng)大的全新工具,可用于為企業(yè)構(gòu)建生產(chǎn)就緒生成式 AI 應(yīng)用,從而推動(dòng)從客服 AI 聊天機(jī)器人到尖端 AI 產(chǎn)品的各種創(chuàng)新。 這些新的基礎(chǔ)模型現(xiàn)已加入? NVIDIA NeMo 。這個(gè)端到端框架用于構(gòu)建、自定義和部署專為企業(yè)定制的
    的頭像 發(fā)表于 11-17 21:35 ?842次閱讀
    NVIDIA AI Foundation Models:使用生產(chǎn)就緒型 <b class='flag-5'>LLM</b> 構(gòu)建自定義企業(yè)聊天機(jī)器人和智能副駕

    什么是LLM?LLM的工作原理和結(jié)構(gòu)

    隨著人工智能技術(shù)的飛速發(fā)展,大型語(yǔ)言模型(Large Language Model,簡(jiǎn)稱LLM)逐漸成為自然語(yǔ)言處理(NLP)領(lǐng)域的研究熱點(diǎn)。LLM以其強(qiáng)大的文本生成、理解和推理能力,在文本
    的頭像 發(fā)表于 07-02 11:45 ?6215次閱讀

    LLM模型的應(yīng)用領(lǐng)域

    在本文中,我們將深入探討LLM(Large Language Model,大型語(yǔ)言模型)的應(yīng)用領(lǐng)域。LLM是一種基于深度學(xué)習(xí)的人工智能技術(shù),它能夠理解和生成自然語(yǔ)言文本。近年來,隨著計(jì)算能力的提高
    的頭像 發(fā)表于 07-09 09:52 ?478次閱讀

    llm模型有哪些格式

    LLM(Large Language Model,大型語(yǔ)言模型)是一種深度學(xué)習(xí)模型,主要用于處理自然語(yǔ)言處理(NLP)任務(wù)。LLM模型的格式多種多樣,以下是一些常見的LLM模型格式
    的頭像 發(fā)表于 07-09 09:59 ?513次閱讀

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語(yǔ)言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個(gè)研究熱點(diǎn),旨在提高模型在處理復(fù)雜任務(wù)時(shí)的效率和響應(yīng)速度。以下是對(duì)LLM大模型推理加速關(guān)鍵技術(shù)的詳細(xì)探討,內(nèi)容將涵蓋模型壓縮、解碼方法優(yōu)化、底層優(yōu)化、分布式并行推理以及特定框架和
    的頭像 發(fā)表于 07-24 11:38 ?722次閱讀

    LLM技術(shù)對(duì)人工智能發(fā)展的影響

    隨著人工智能技術(shù)的飛速發(fā)展,大型語(yǔ)言模型(LLM)技術(shù)已經(jīng)成為推動(dòng)AI領(lǐng)域進(jìn)步的關(guān)鍵力量。LLM技術(shù)通過深度學(xué)習(xí)和自然語(yǔ)言處理技術(shù),使得機(jī)器能夠理解和生成自然語(yǔ)言,極大地?cái)U(kuò)展了人工智能的應(yīng)用范圍
    的頭像 發(fā)表于 11-08 09:28 ?199次閱讀