0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GTC23 | 彌補不足:大型語言模型借企業(yè)數(shù)據(jù)之力變得更加智能

NVIDIA英偉達企業(yè)解決方案 ? 來源:未知 ? 2023-03-25 09:10 ? 次閱讀

NVIDIA NeMo 服務(wù)幫助企業(yè)將大型語言模型與其專有數(shù)據(jù)相結(jié)合,賦能智能聊天機器人、客戶服務(wù)等更多應(yīng)用。

如今的大型語言模型知識淵博,但它們的工作方式有點像時間膠囊——所收集的信息僅限于第一次被訓(xùn)練時所使用的數(shù)據(jù)。例如,如果在一年前進行訓(xùn)練,那么驅(qū)動 AI 聊天機器人的大型語言模型就不會知道最近的產(chǎn)品或者服務(wù)。

通過最近發(fā)布的 NVIDIA AI Foundations 云服務(wù)系列中的 NVIDIA NeMo 服務(wù),企業(yè)可以很好地填補這一缺口。企業(yè)用戶可以使用專有數(shù)據(jù)來增強他們的大型語言模型,從而能夠經(jīng)常更新模型的知識庫,而不必從頭開始重新訓(xùn)練這些模型。

NeMo 服務(wù)中的這一新功能使大型語言模型能夠從專有數(shù)據(jù)源中檢索準(zhǔn)確的信息,并為用戶查詢生成類似人類的對話式答案。有了這一功能,企業(yè)可以使用 NeMo 為其應(yīng)用程序定制能夠定期更新、擁有特定領(lǐng)域知識的大型語言模型。

這可以幫助企業(yè)跟上庫存、服務(wù)等領(lǐng)域不斷變化的形勢,解鎖高精度人工智能聊天機器人、企業(yè)搜索引擎和市場情報工具等功能。

NeMo 包括為語言模型的響應(yīng)引用來源的能力,從而增加用戶對輸出的信任。使用 NeMo 的開發(fā)人員還可以設(shè)置護欄來定義人工智能的專業(yè)領(lǐng)域,從而更好地控制生成的響應(yīng)。

Quantiphi 是一家以 AI 為先的數(shù)字工程解決方案和平臺公司,也是 NVIDIA 的服務(wù)交付合作伙伴之一。它正在與 NeMo 合作,構(gòu)建一個名為 baioniq 的模塊化生成人工智能解決方案,幫助企業(yè)構(gòu)建定制的大型語言模型,以提高工人的生產(chǎn)力。其開發(fā)團隊正在創(chuàng)建一些工具,使用戶可以在幾秒鐘內(nèi)搜索非結(jié)構(gòu)化文本、圖像和表格中的最新信息。

為“暗數(shù)據(jù)”帶來光明

分析師估計,大約有三分之二的企業(yè)數(shù)據(jù)沒有被開發(fā)。這些信息被稱為“暗數(shù)據(jù)”,它們未被開發(fā)的原因之一是很難從大量數(shù)據(jù)中收集到有意義的洞察?,F(xiàn)在,有了 NeMo,企業(yè)可以使用自然語言提示從這些數(shù)據(jù)中獲取洞察。

NeMo 可以幫助企業(yè)建立能夠從不斷變化的知識庫中學(xué)習(xí)并做出反應(yīng)的模型,無論該模型最初使用什么數(shù)據(jù)集進行訓(xùn)練。開發(fā)人員不需要為了新的信息而重新訓(xùn)練模型,只需要更新一個數(shù)據(jù)庫作為該模型的記憶庫即可。新增加的信息可以被添加到這個數(shù)據(jù)庫中,而不需要修改大型語言模型在語言處理和文字生成方面的核心能力。

企業(yè)還可以設(shè)置護欄來定義人工智能的專業(yè)領(lǐng)域,生成式 AI 應(yīng)用將不會對專業(yè)領(lǐng)域外的話題發(fā)表觀點或意見。

掀起新一輪企業(yè)生成式 AI 應(yīng)用的熱潮

通過使用業(yè)務(wù)數(shù)據(jù)定制大型語言模型,企業(yè)可以使他們的 AI 應(yīng)用變得敏捷、快速響應(yīng):

  • 聊天機器人:許多企業(yè)已使用 AI 聊天機器人在網(wǎng)站上與客戶保持基礎(chǔ)的互動。通過 NeMo,企業(yè)可以構(gòu)建所在專業(yè)領(lǐng)域的虛擬專家。

  • 客戶服務(wù):企業(yè)可以使用最新產(chǎn)品的細(xì)節(jié)來更新 NeMo 模型,幫助現(xiàn)場服務(wù)人員運用最新信息,更加輕松地回答客戶的問題。

  • 企業(yè)搜索:企業(yè)擁有非常豐富的資料,包括技術(shù)文檔、公司政策和 IT 支持文檔等。員工可以使用一個由 NeMo 驅(qū)動的內(nèi)部搜索引擎,更快、更容易地檢索信息。

  • 市場情報:金融行業(yè)需要收集關(guān)于全球市場、上市公司和經(jīng)濟趨勢的洞察。通過將大型語言模型連接到定期更新的數(shù)據(jù)庫,投資者和其他專家可以從大量信息中快速識別出有用的細(xì)節(jié),比如監(jiān)管文件、財報電話會議錄音或財務(wù)報表等。

想在應(yīng)用中添加生成式 AI 功能的企業(yè)可以申請搶先體驗 NeMo 服務(wù)。(https://developer.nvidia.com/nemo-llm-service-early-access)

點擊“閱讀原文”,觀看 NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛 NVIDIA GTC 主題演講中關(guān)于 NVIDIA AI Foundations 的部分。

5c54e8ee-caa9-11ed-bfe3-dac502259ad0.gif ?

3 月 24 日 下午 14:00-16:00,繼續(xù)鎖定 GTC23,加入在線觀看(Watch Party) 派對,從黃仁勛與 OpenAI 創(chuàng)始人兼首席科學(xué)家高能對話中,看 AI 的現(xiàn)狀和未來!

Watch Party 觀看指南

會議開始前 15 分鐘,

點擊下方出現(xiàn)的“JOIN WATCH PARTY NOW"

進入 Teams 會議室觀看

5c680140-caa9-11ed-bfe3-dac502259ad0.png

3 月 24 日 熱門觀看派對推薦 【爐邊談話:看 AI 的現(xiàn)狀和未來】 會議時間:14:00 - 16:00 會議代碼:【W(wǎng)P52092】點擊下方鏈接解會議詳情 GTC23 | 黃仁勛與 Ilya Sutskever 的爐邊談話重磅來襲!— 看 AI 的現(xiàn)狀和未來 【通過 AI 職業(yè)生涯改變世界】 會議時間:19:30 - 21:30 會議代碼:【W(wǎng)P52162】 點擊下方鏈接了解會議詳情 : GTC23 | 科學(xué)計算精選論壇中文解讀誠邀您的到來!


原文標(biāo)題:GTC23 | 彌補不足:大型語言模型借企業(yè)數(shù)據(jù)之力變得更加智能

文章出處:【微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達
    +關(guān)注

    關(guān)注

    22

    文章

    3721

    瀏覽量

    90696

原文標(biāo)題:GTC23 | 彌補不足:大型語言模型借企業(yè)數(shù)據(jù)之力變得更加智能

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    如何利用大型語言模型驅(qū)動的搜索為公司創(chuàng)造價值

    大型語言模型LLMs具有自動化內(nèi)容創(chuàng)建、提高內(nèi)容質(zhì)量及多樣化的潛力,可重塑企業(yè)與信息的交互方式。通過利用LLMs,企業(yè)能提升工作效率,降低運
    的頭像 發(fā)表于 10-13 08:07 ?105次閱讀
    如何利用<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>驅(qū)動的搜索為公司創(chuàng)造價值

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 俯瞰全書

    ,了解此書的主要內(nèi)容: 書分四篇,基礎(chǔ)、入門、進階和展望。 基礎(chǔ)篇從人工智能起源開始、之后又介紹了機器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)和大語言模型的基礎(chǔ)知識,如果讀者學(xué)習(xí)過機器學(xué)習(xí)相關(guān)課程,那這個基礎(chǔ)篇的閱讀就會很輕
    發(fā)表于 07-21 13:35

    基于CPU的大型語言模型推理實驗

    隨著計算和數(shù)據(jù)處理變得越來越分散和復(fù)雜,AI 的重點正在從初始訓(xùn)練轉(zhuǎn)向更高效的AI 推理。Meta 的 Llama3 是功能強大的公開可用的大型語言
    的頭像 發(fā)表于 07-18 14:28 ?447次閱讀
    基于CPU的<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>推理實驗

    富士通與Cohere合作,專注于開發(fā)和提供大型語言模型(LLM)

    富士通(Fujitsu)與總部位于多倫多與舊金山的頂尖安全及數(shù)據(jù)隱私人工智能企業(yè)Cohere Inc.攜手宣布建立深度戰(zhàn)略合作伙伴關(guān)系,共同致力于大型
    的頭像 發(fā)表于 07-16 16:55 ?450次閱讀

    LLM之外的性價比之選,小語言模型

    。然而在一些對實時性要求較高的應(yīng)用中,比如AI客服、實時數(shù)據(jù)分析等,大語言模型并沒有太大的優(yōu)勢。 ? 在動輒萬億參數(shù)的LLM下,硬件需求已經(jīng)遭受了不小的挑戰(zhàn)。所以面對一些相對簡單的任務(wù),規(guī)模較小的小
    的頭像 發(fā)表于 06-03 05:15 ?2162次閱讀
    LLM之外的性價比之選,小<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    了解大型語言模型 (LLM) 領(lǐng)域中的25個關(guān)鍵術(shù)語

    1.LLM(大語言模型大型語言模型(LLMs)是先進的人工智能系統(tǒng),經(jīng)過大量文本
    的頭像 發(fā)表于 05-10 08:27 ?1205次閱讀
    了解<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b> (LLM) 領(lǐng)域中的25個關(guān)鍵術(shù)語

    【大語言模型:原理與工程實踐】大語言模型的應(yīng)用

    的創(chuàng)造力進行結(jié)合,從而創(chuàng)造出更加豐富多樣的內(nèi)容。隨著技術(shù)的不斷發(fā)展,自動提示生成技術(shù)有望逐漸成熟。這將使大語言模型變得更加自主,能夠自行構(gòu)建
    發(fā)表于 05-07 17:21

    【大語言模型:原理與工程實踐】大語言模型的評測

    計算和代碼糾錯等。這些場景覆蓋日常生活和學(xué)習(xí)的多個方面,使得對話能力評測變得尤為復(fù)雜和關(guān)鍵。為了全面評估大語言模型在各種應(yīng)用場景下的對話能力,研究人員和使用者需要一套綜合性的評測框架。該框架主要包括評測
    發(fā)表于 05-07 17:12

    Snowflake推出面向企業(yè)AI的大語言模型

    Snowflake公司近日推出了企業(yè)級AI模型——Snowflake Arctic,這是一款大型語言模型(LLM),專為滿足
    的頭像 發(fā)表于 05-07 10:03 ?431次閱讀

    【大語言模型:原理與工程實踐】大語言模型的基礎(chǔ)技術(shù)

    之后,成為文本建模領(lǐng)域的熱門架構(gòu)。不僅如此,它還對自然語言處理領(lǐng)域產(chǎn)生了深遠(yuǎn)的影響?;赥ransformer的預(yù)訓(xùn)練模型,如GPT系列和BERT系列,已在多種任務(wù)上取得了卓越的成績。目前的大型
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    語言模型(LLM)是人工智能領(lǐng)域的尖端技術(shù),憑借龐大的參數(shù)量和卓越的語言理解能力贏得了廣泛關(guān)注。它基于深度學(xué)習(xí),利用神經(jīng)網(wǎng)絡(luò)框架來理解和生成自然
    發(fā)表于 05-04 23:55

    【大語言模型:原理與工程實踐】探索《大語言模型原理與工程實踐》

    《大語言模型》是一本深入探討人工智能領(lǐng)域中語言模型的著作。作者通過對語言
    發(fā)表于 04-30 15:35

    OpenVINO?助力谷歌大語言模型Gemma實現(xiàn)高速智能推理

    大型語言模型(LLM)正在迅速發(fā)展,變得更加強大和高效,使人們能夠在廣泛的應(yīng)用程序中越來越復(fù)雜地理解和生成類人文本。
    的頭像 發(fā)表于 03-17 17:17 ?800次閱讀
    OpenVINO?助力谷歌大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>Gemma實現(xiàn)高速<b class='flag-5'>智能</b>推理

    語言模型推斷中的批處理效應(yīng)

    隨著開源預(yù)訓(xùn)練大型語言模型(Large Language Model, LLM )變得更加強大和開放,越來越多的開發(fā)者將大
    的頭像 發(fā)表于 01-04 12:32 ?576次閱讀
    大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>推斷中的批處理效應(yīng)

    探索高效的大型語言模型!大型語言模型的高效學(xué)習(xí)方法

    大型語言模型(LLMs)的應(yīng)用中,提示工程(Prompt Engineering)是一種關(guān)鍵技術(shù),用于引導(dǎo)模型生成特定輸出或執(zhí)行特定任務(wù)。通過精心設(shè)計的提示,可以顯著提高LLMs的性
    發(fā)表于 12-13 14:21 ?557次閱讀
    探索高效的<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>!<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>的高效學(xué)習(xí)方法