0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

ToolLLM:促進大型語言模型掌握16000+真實世界的APIs

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 2023-08-02 16:27 ? 次閱讀

為了促進開源LLMs的工具使用能力,作者引入了 ToolLLM,這是一個數據構建、模型訓練和評估的通用工具使用框架。

4885e696-3076-11ee-9e74-dac502259ad0.png

論文:ToolLLM: Facilitating Large Language Models to Master 16000+ Real-world APIs
地址:https://arxiv.org/abs/2307.16789
項目:https://github.com/OpenBMB/ToolBench
單位:清華、人大、耶魯、微信、騰訊、知乎

盡管開源大語言模型 (LLM) 及其變體(例如 LLaMA 和 Vicuna)取得了進步,但它們在執(zhí)行更高級別的任務方面仍然受到很大限制,例如遵循人類指令使用外部工具 (API)。

這是因為當前的指令調優(yōu)主要集中在基本語言任務而不是工具使用領域。

這與最先進 (SOTA) 的LLMs(例如 ChatGPT)形成鮮明對比,后者展示了出色的工具使用能力,但不幸的是閉源的。

48b7033e-3076-11ee-9e74-dac502259ad0.png

為了促進開源LLMs的工具使用能力,我們引入了 ToolLLM,這是一個數據構建、模型訓練和評估的通用工具使用框架。

我們首先介紹 ToolBench,這是一個供工具使用的指令調整數據集,它是使用 ChatGPT 自動創(chuàng)建的。

具體來說,我們從 RapidAPI Hub 收集了 16,464 個真實世界的 RESTful API,涵蓋 49 個類別,然后提示 ChatGPT 生成涉及這些 API 的各種人工指令,涵蓋單工具和多工具場景。

48de00c4-3076-11ee-9e74-dac502259ad0.png

最后,我們使用 ChatGPT 為每條指令搜索有效的解決方案路徑(API 調用鏈)。

為了使搜索過程更加高效,我們開發(fā)了一種新穎的基于深度優(yōu)先搜索的決策樹(DFSDT),使LLMs能夠評估多個推理軌跡并擴展搜索空間。我們證明 DFSDT 顯著增強了LLMs的規(guī)劃和推理能力。

4942a056-3076-11ee-9e74-dac502259ad0.png

為了有效評估工具使用情況,我們開發(fā)了一個自動評估器:ToolEval

4969e40e-3076-11ee-9e74-dac502259ad0.png49874cce-3076-11ee-9e74-dac502259ad0.png

我們在ToolBench上微調LLaMA并獲得ToolLLaMA。

49a2fed8-3076-11ee-9e74-dac502259ad0.png

我們的 ToolEval 表明 ToolLLaMA 表現出執(zhí)行復雜指令和泛化到未見過的 API 的卓越能力,并且表現出與 ChatGPT 相當的性能。

49cd61f0-3076-11ee-9e74-dac502259ad0.png

為了使管道更加實用,我們設計了一個神經 API 檢索器來為每條指令推薦合適的 API,從而無需手動選擇 API。

49f19782-3076-11ee-9e74-dac502259ad0.png



聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 數據
    +關注

    關注

    8

    文章

    6808

    瀏覽量

    88743
  • 開源
    +關注

    關注

    3

    文章

    3215

    瀏覽量

    42329
  • 語言模型
    +關注

    關注

    0

    文章

    501

    瀏覽量

    10236

原文標題:劉知遠等眾多機構提出ToolLLM:促進大型語言模型掌握16000+真實世界的APIs

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    大型語言模型在關鍵任務和實際應用中的挑戰(zhàn)

    大型語言模型的出現極大地推動了自然語言處理領域的進步,但同時也存在一些局限性,比如模型可能會產生看似合理但實際上是錯誤或虛假的內容,這一現象
    的頭像 發(fā)表于 08-15 09:33 ?1433次閱讀
    <b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>在關鍵任務和實際應用中的挑戰(zhàn)

    探索高效的大型語言模型!大型語言模型的高效學習方法

    大型語言模型(LLMs)的應用中,提示工程(Prompt Engineering)是一種關鍵技術,用于引導模型生成特定輸出或執(zhí)行特定任務。通過精心設計的提示,可以顯著提高LLMs的性
    發(fā)表于 12-13 14:21 ?557次閱讀
    探索高效的<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>!<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>的高效學習方法

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    。 大語言模型的縮放定律對于深度學習研究和應用具有重要意義。它提供了更強大的泛化能力和適應性,使得模型能夠更好地處理現實世界中的復雜任務和不確定性問題。同時,縮放定律也
    發(fā)表于 05-04 23:55

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    之后,成為文本建模領域的熱門架構。不僅如此,它還對自然語言處理領域產生了深遠的影響。基于Transformer的預訓練模型,如GPT系列和BERT系列,已在多種任務上取得了卓越的成績。目前的大型
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實踐】大語言模型的評測

    ,例如將中文詩句“獨在異鄉(xiāng)為異客,每逢佳節(jié)倍思親”翻譯成英文。其次,多語言能力則評估模型對不同國家和地區(qū)語言掌握程度,如將“我要出去吃晚飯”翻譯成日語。針對翻譯類評測任務,我們主要關
    發(fā)表于 05-07 17:12

    【大語言模型:原理與工程實踐】大語言模型的應用

    和微調的積累,無需額外知識。然而,大模型掌握世界知識具有時效性,對于訓練后發(fā)生的事件或訓練集中未涵蓋的知識,大語言模型往往無法應對。當面
    發(fā)表于 05-07 17:21

    KT利用NVIDIA AI平臺訓練大型語言模型

    韓國先進的移動運營商構建包含數百億個參數的大型語言模型,并使用 NVIDIA DGX SuperPOD 平臺和 NeMo Megatron 框架訓練該模型。
    的頭像 發(fā)表于 09-27 09:24 ?1146次閱讀

    NVIDIA AI平臺為大型語言模型帶來巨大收益

    隨著大型語言模型( LLM )的規(guī)模和復雜性不斷增長, NVIDIA 今天宣布更新 NeMo Megatron 框架,提供高達 30% 的訓練速度。
    的頭像 發(fā)表于 10-10 15:39 ?852次閱讀
    NVIDIA AI平臺為<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>帶來巨大收益

    大型語言模型有哪些用途?

    大型語言模型能識別、總結、翻譯、預測和生成文本及其他內容。 AI 應用在大型語言模型的幫助下,可
    的頭像 發(fā)表于 02-23 19:50 ?5081次閱讀

    大型語言模型有哪些用途?大型語言模型如何運作呢?

    大型語言模型能識別、總結、翻譯、預測和生成文本及其他內容。
    的頭像 發(fā)表于 03-08 13:57 ?7831次閱讀

    淺析AI大型語言模型研究的發(fā)展歷程

    大型語言模型研究的發(fā)展有三條技術路線:Bert 模式、GPT 模式、混合模式。其中國內大多采用混合模式, 多數主流大型語言
    發(fā)表于 06-09 12:34 ?5039次閱讀
    淺析AI<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>研究的發(fā)展歷程

    基于Transformer的大型語言模型(LLM)的內部機制

    本文旨在更好地理解基于 Transformer 的大型語言模型(LLM)的內部機制,以提高它們的可靠性和可解釋性。 隨著大型語言
    的頭像 發(fā)表于 06-25 15:08 ?1395次閱讀
    基于Transformer的<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>(LLM)的內部機制

    大型語言模型的應用

    ?? 大型語言模型(LLM) 是一種深度學習算法,可以通過大規(guī)模數據集訓練來學習識別、總結、翻譯、預測和生成文本及其他內容。大語言模型(LL
    的頭像 發(fā)表于 07-05 10:27 ?2025次閱讀

    大規(guī)模語言模型的基本概念、發(fā)展歷程和構建流程

    使用自然語言與系統(tǒng)交互,從而實現包括問答、分類、摘要、翻譯、聊天等從理解到生成的各種任務。大型語言模型展現出了強大的對世界知識
    的頭像 發(fā)表于 12-07 11:40 ?3586次閱讀
    大規(guī)模<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的基本概念、發(fā)展歷程和構建流程

    如何利用大型語言模型驅動的搜索為公司創(chuàng)造價值

    大型語言模型LLMs具有自動化內容創(chuàng)建、提高內容質量及多樣化的潛力,可重塑企業(yè)與信息的交互方式。通過利用LLMs,企業(yè)能提升工作效率,降低運營成本,并獲得深入洞察。來自EgeGürdeniz
    的頭像 發(fā)表于 10-13 08:07 ?104次閱讀
    如何利用<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>驅動的搜索為公司創(chuàng)造價值