電子發(fā)燒友App

硬聲App

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

電子發(fā)燒友網(wǎng)>人工智能>探索LangChain:構(gòu)建專屬LLM應(yīng)用的基石

探索LangChain:構(gòu)建專屬LLM應(yīng)用的基石

收藏

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

評論

查看更多

相關(guān)推薦

【比特熊充電?!繉崙?zhàn)演練構(gòu)建LLM對話引擎

Guardrails 與 Azure OpenAI 結(jié)合使用,構(gòu)建更加安全可靠的 LLM 對話引擎? 本期 【比特熊充電?!?NVIDIA 企業(yè)
2023-09-19 13:40:04717

突破邊界:高性能計算引領(lǐng)LLM駛向通用人工智能AGI的創(chuàng)新紀(jì)元

ChatGPT的成功帶動整個AIGC產(chǎn)業(yè)的發(fā)展,尤其是LLM(大型語言模型,大語言模型)、NLP、高性能計算和深度學(xué)習(xí)等領(lǐng)域。LLM的發(fā)展將為全球和中國AI芯片、AI服務(wù)器市場的增長提供強(qiáng)勁動力,據(jù)估算,LLM將為全球和中國AI服務(wù)器帶來約891.2億美元和338.2億美元的市場空間。
2023-06-25 14:31:15575

對比解碼在LLM上的應(yīng)用

為了改進(jìn)LLM的推理能力,University of California聯(lián)合Meta AI實驗室提出將Contrastive Decoding應(yīng)用于多種任務(wù)的LLM方法。實驗表明,所提方法能有效改進(jìn)LLM的推理能力。讓我們走進(jìn)論文一探究竟吧!
2023-09-21 11:37:55327

TensorRT-LLM初探(一)運(yùn)行l(wèi)lama

TensorRT-LLM正式出來有半個月了,一直沒有時間玩,周末趁著有時間跑一下。
2023-11-16 17:39:34772

基于ICL范式的LLM的最高置信度預(yù)測方案

本文假設(shè)不同的ICL為LLM提供了關(guān)于任務(wù)的不同知識,導(dǎo)致對相同數(shù)據(jù)的不同理解和預(yù)測。因此,一個直接的研究問題出現(xiàn)了:llm能否用多個ICL提示輸入來增強(qiáng),以提供最可信的預(yù)測?為解決這個問題,本文提出上下文采樣(ICS)。ICS遵循三步流程:采樣、增強(qiáng)和驗證,如圖1所示。
2023-11-24 11:20:46863

低比特量化技術(shù)如何幫助LLM提升性能

針對大語言模型 (LLM) 在部署過程中的性能需求,低比特量化技術(shù)一直是優(yōu)化效果最佳的方案之一,本文將探討低比特量化技術(shù)如何幫助 LLM 提升性能,以及新版 OpenVINO 對于低比特量化技術(shù)的支持。
2023-12-08 15:26:45554

基于OpenVINO和LangChain構(gòu)建RAG問答系統(tǒng)

隨著生成式 AI 的興起,和大語言模型對話聊天的應(yīng)用變得非常熱門,但這類應(yīng)用往往只能簡單地和你“聊聊家?!?,并不能針對某些特定的行業(yè),給出非常專業(yè)和精準(zhǔn)的答案。這也是由于大語言模型(以下簡稱 LLM
2023-12-25 11:10:42505

使用基于Transformers的API在CPU上實現(xiàn)LLM高效推理

英特爾 Extension for Transformers是英特爾推出的一個創(chuàng)新工具包,可基于英特爾 架構(gòu)平臺,尤其是第四代英特爾 至強(qiáng) 可擴(kuò)展處理器(代號 SapphireRapids,SPR)顯著加速基于Transformers的大語言模型( LargeLanguageModel,LLM)。
2024-01-22 11:11:061823

LLM3225

LLM3225 - Wire Wound Chip Inductors - TOKO, Inc
2022-11-04 17:22:44

LLM3225-R15H

LLM3225-R15H - Wire Wound Chip Inductors - TOKO, Inc
2022-11-04 17:22:44

LLM3225-R18H

LLM3225-R18H - Wire Wound Chip Inductors - TOKO, Inc
2022-11-04 17:22:44

LLM3225-R33H

LLM3225-R33H - Wire Wound Chip Inductors - TOKO, Inc
2022-11-04 17:22:44

LLM3225-R56H

LLM3225-R56H - Wire Wound Chip Inductors - TOKO, Inc
2022-11-04 17:22:44

LLM3225-R68H

LLM3225-R68H - Wire Wound Chip Inductors - TOKO, Inc
2022-11-04 17:22:44

探索者STM32F407

探索者STM32F407 DEVB_121X160MM 6~24V
2023-03-28 13:06:24

ArkUI開發(fā)趣味體驗,快來抽取限量HarmonyOS專屬頭像!

本次ArkUI開發(fā)趣味體驗活動,將手把手教大家如何在IDE里實操一個ArkUI程序,通過補(bǔ)充缺失代碼,成功運(yùn)行程序開啟抽獎功能,抽取個人專屬頭像,做HarmonyOS第一批數(shù)字藏品家!同時本期提供
2022-12-08 17:20:47

DIY一款自己專屬的手柄

玩游戲的小伙伴都知道,有的游戲需要使用游戲手柄體驗才會更好,今天就我們來DIY一款自己專屬的手柄!1.設(shè)計思路電腦游戲手柄和鼠標(biāo)鍵盤一樣屬于USBHID設(shè)備,Window系統(tǒng)和Linux系統(tǒng)和各種
2021-07-21 09:32:48

HarmonyOS 探索之路——電子書上線啦!

的你還不知道如何上手嗎?快來看看這本電子書下載地址:http://t.elecfans.com/ebook/118.html目錄HarmonyOS 探索之路(1):開箱體驗HarmonyOS 探索之路
2021-01-28 15:03:07

HarmonyOS初步探索系列文章匯總

文章! 鴻蒙初步探索系列:HarmonyOS初步探索01:下載安裝DevEco StudioHarmonyOS初步探索02:開發(fā)第一個HarmonyOS應(yīng)用HarmonyOS初步探索03:DevEco
2020-12-15 14:56:20

IEC61850協(xié)議通信的“基石”是什么?

這里給大家介紹一下IEC61850協(xié)議通信的“基石”— ASN.1編碼。
2021-05-14 07:15:20

OPPO在5G標(biāo)準(zhǔn)、研發(fā)和應(yīng)用探索方面有哪些布局?

11月15日,在重慶召開的《2018第二屆國際手機(jī)產(chǎn)業(yè)領(lǐng)袖峰會——5G新世界·AI云生態(tài)》論壇上,OPPO全球副總裁劉暢表示,5G可以催生出更多前所未有的應(yīng)用場景,OPPO正積極構(gòu)建自身的5G技術(shù)能力,并在標(biāo)準(zhǔn)、研發(fā)和應(yīng)用探索全方面的布局。OPPO全球副總裁劉暢
2019-09-11 11:51:52

【下載】《構(gòu)建嵌入式LINUX系統(tǒng)(第二版)》

Linux內(nèi)核的*新版本做過*新,并且加入之前未介紹 過的程序以便協(xié)助你: ·建立你自己的GNU development toolchain(開發(fā)工具鏈) ·為你的目標(biāo)系統(tǒng)選用、設(shè)定、構(gòu)建以及安裝專屬的內(nèi)核
2018-04-10 18:00:43

便攜設(shè)備電源管理設(shè)計技巧與難點(diǎn)探索

和通信電源的應(yīng)用工程師于相旭,帶我們走進(jìn)電源管理技術(shù)的核心,一起探索便攜電源管理技術(shù)現(xiàn)在,未來。欲了解便攜設(shè)備電源管理技術(shù),請點(diǎn)擊本期話題討論 話題討論:構(gòu)建低功耗不可或缺的電源管理技術(shù)嘉賓:Intersil 工業(yè)電源和通信電源的應(yīng)用工程師 于相旭{:4_99:}
2014-10-14 16:08:22

利用卷積調(diào)制構(gòu)建一種新的ConvNet架構(gòu)Conv2Former

1、利用卷積探索一種更高效的編碼空域特征的方式  本文旨在通過充分利用卷積探索一種更高效的編碼空域特征的方式:通過組合ConvNet與ViT的設(shè)計理念,本文利用卷積調(diào)制操作對自注意力進(jìn)行了簡化,進(jìn)而
2022-12-19 17:37:34

如何使用Arm Compiler 5工具鏈構(gòu)建一個簡單的C程序

使用Arm編譯器構(gòu)建hello世界教程向您展示了如何使用Arm Compiler 5工具鏈構(gòu)建一個簡單的C程序。 本教程超越了基礎(chǔ)知識,探索Arm編譯器5工具鏈的一些更高級的功能。 本教程假設(shè)您已經(jīng)
2023-08-02 06:57:53

如何量身定做自己的專屬Beacon?

如何量身定做自己的專屬Beacon?
2021-05-20 06:39:17

打造專屬電源方案

錯開の折騰經(jīng)歷:ESP8266 NodeMCU文章目錄前言一、準(zhǔn)備1.材料清單2.設(shè)計思路二、焊接三、總結(jié)前言繼續(xù)之前的項目,現(xiàn)在任務(wù)就是將實現(xiàn)的空調(diào)控制器集成于一塊pcb板子上,并打造專屬電源方案
2021-11-11 06:39:48

數(shù)據(jù)探索與數(shù)據(jù)預(yù)處理

目錄1數(shù)據(jù)探索與數(shù)據(jù)預(yù)處理21.1 賽題回顧21.2 數(shù)據(jù)探索性分析與異常值處理21.3 相關(guān)性分析52特征工程82.1 光伏發(fā)電領(lǐng)域特征82.2 高階環(huán)境特征112.3 特征選擇113模型構(gòu)建
2021-07-12 08:37:20

機(jī)器學(xué)習(xí)基石筆記

3)機(jī)器學(xué)習(xí)基石筆記 Lecture3:Types of Learning
2020-05-26 14:53:14

機(jī)器學(xué)習(xí)基石筆記分享

機(jī)器學(xué)習(xí)基石筆記01
2020-06-03 08:14:10

林軒田機(jī)器學(xué)習(xí)基石課程個人筆記

林軒田機(jī)器學(xué)習(xí)基石課程個人筆記-第二講
2020-05-22 07:35:12

正點(diǎn)原子STM32系列——探索者V3開發(fā)板評測報告聚合帖

】+I2C驅(qū)動OLED jinglixix 【正點(diǎn)原子STM32探索者V3開發(fā)板體驗】初識STM32F407開發(fā)板 【正點(diǎn)原子STM32探索者V3開發(fā)板體驗】 開發(fā)環(huán)境的構(gòu)建與GPIO口的使用 【正點(diǎn)
2023-05-10 15:52:16

物聯(lián)網(wǎng)的基石-MQTT協(xié)議初識

1、物聯(lián)網(wǎng)的基石-mqtt協(xié)議初識隨著 5G 時代的來臨,萬物互聯(lián)的偉大構(gòu)想正在成為現(xiàn)實。聯(lián)網(wǎng)的 物聯(lián)網(wǎng)設(shè)備 在 2018 年已經(jīng)達(dá)到了 70 億,在未來兩年,僅智能水電氣表就將超過10億。海量
2022-09-08 16:03:12

精通信號處理設(shè)計小Tips(3):必須掌握的三大基石

,以及對應(yīng)的硬件設(shè)計實現(xiàn)能力;具備通信物理層開發(fā)設(shè)計各個方面的實戰(zhàn)經(jīng) 驗...  精通信號處理設(shè)計小Tips(3):必須掌握的三大基石  信號與信息處理涵蓋的內(nèi)容相當(dāng)廣泛,并和自動控制,計算機(jī)等其他
2013-12-09 22:25:24

選擇藍(lán)牙開發(fā)板 啟動你的專屬Beacon!

選擇藍(lán)牙開發(fā)板啟動你的專屬Beacon!
2021-05-21 06:45:22

彩虹AA電池 賓得彩色單反專屬

  彩虹AA電池 賓得彩色單反專屬 2009年11月16日17:59:24
2009-11-16 17:59:34762

專屬iPhone的兩款時尚充電器

著名的蘋果配件生產(chǎn)商Bracketron公布了最新專屬iPhone 4和IPhone 4S打造的MetalDock充電設(shè)備。
2012-05-09 09:05:36405

e絡(luò)盟推出專屬網(wǎng)站平臺,幫助用戶構(gòu)建并推廣面向TI MCU LaunchPad的全新BoosterPack擴(kuò)展板

2013年10月21日,e絡(luò)盟日前宣布推出全新專屬網(wǎng)站平臺‘構(gòu)建你的BoosterPack’,為設(shè)計師創(chuàng)造自己獨(dú)有的BoosterPack提供資源支持。BoosterPack是一款針對TI微控制器
2013-10-22 12:00:58869

這么萌還不買?紅米Note4X初音專屬配色圖賞

紅米Note 4X 多彩金屬,超長續(xù)航,這是我們對國民手機(jī)的全新定義。這一次也特地邀請到初音未來,帶來她的專屬配色款。極具特色的初音未來專屬配色,不僅使手機(jī)有了一個獨(dú)特的外觀,還代表著對未來的無限期待。
2017-03-28 14:34:202997

構(gòu)建專屬于你的CAN-bus應(yīng)用層協(xié)議

隨著CAN-bus相關(guān)芯片價格的下降,內(nèi)置CAN控制器MCU的增多,CAN-bus當(dāng)前已經(jīng)進(jìn)入了眾多早期由于成本問題無法使用的領(lǐng)域,成為極具生命力的現(xiàn)場總線,今天我們就來探討如何構(gòu)建專屬自己的CAN-bus應(yīng)用層協(xié)議。
2017-05-02 15:31:379

如何構(gòu)建專屬自己的CAN-bus應(yīng)用層協(xié)議

隨著CAN-bus相關(guān)芯片價格的下降,內(nèi)置CAN控制器MCU的增多,CAN-bus當(dāng)前已經(jīng)進(jìn)入了眾多早期由于成本問題無法使用的領(lǐng)域,成為極具生命力的現(xiàn)場總線,今天我們就來探討如何構(gòu)建專屬自己的CAN-bus應(yīng)用層協(xié)議。
2017-05-04 15:39:05954

存儲 IC——現(xiàn)代信息技術(shù)的基石

存儲器可以說是大數(shù)據(jù)時代的基石。
2019-06-06 11:23:327592

5G手機(jī)需專屬應(yīng)用場景

本文主要講述了:若無專屬應(yīng)用場景,5G手機(jī)或成為無米之炊
2019-08-15 10:50:375639

如何定義一個Blocklet基石程序

Blocklet(基石程序) 是供開發(fā)者和社區(qū)用戶在ArcBlock平臺上創(chuàng)建事物的可重用構(gòu)建模塊。簡單來說,Blocklet 可以是任何現(xiàn)成的組件、模塊、庫、前端視圖或其他簡化構(gòu)建 dApp(去中心化應(yīng)用)過程的工具。
2019-09-30 10:26:43273

特斯拉Roadster車主的專屬服務(wù)

日前據(jù)外媒報道,特斯拉向Roadster車主發(fā)送了郵件,聲稱將為車主提供包括專屬的服務(wù)顧問在內(nèi)的“專屬渠道”,以改善多年來特斯拉對Roadster車主的服務(wù)。并邀請Roadster車主用他們的舊車抵價購買新款特斯拉電動汽車,或者用于購買最新的Roadster跑車。
2019-12-05 16:35:512249

屬于使用Keil朋友的專屬文章

一篇屬于使用Keil朋友的專屬文章
2020-03-14 14:38:551326

英特爾構(gòu)建智慧云基石,推動企業(yè)在數(shù)字經(jīng)濟(jì)時代前進(jìn)

“后新冠時代”,在線(云)上,人與人的交流變得更加容易。4月底,“英特爾構(gòu)建智慧云基石”線上沙龍如約舉行,英特爾及合作伙伴的專家們,圍繞著“快捷上云、高效用云、輕松管云”三個核心點(diǎn),又延展
2020-05-09 14:46:163205

高通安蒙:構(gòu)建無線技術(shù)的未來,探索5G未來之路

“What’s Next in 5G”系列視頻迎來了最后一集,將由高通公司總裁兼候任CEO安蒙為大家解析高通將如何構(gòu)建無線技術(shù)的未來,探索5G未來之路。 以下為安蒙演講全文: 5G未來
2021-03-02 11:29:571512

浪潮存儲助力九寨溝構(gòu)建智慧產(chǎn)業(yè)升級的數(shù)據(jù)基石

為游客營造信息對稱、安全、舒適、有序、交通順暢的旅游環(huán)境,九寨溝借助數(shù)字科技技術(shù)構(gòu)建了智慧旅游大數(shù)據(jù)綜合管理平臺,在堅持以景區(qū)生態(tài)環(huán)境承載量為第一前提的“保護(hù)型發(fā)展”原則,打造兼顧人與自然
2021-12-30 11:31:22999

汽車網(wǎng)絡(luò)安全左移實踐——基于信任構(gòu)建汽車安全的探索

汽車網(wǎng)絡(luò)安全左移實踐——基于信任構(gòu)建汽車安全的探索
2023-02-06 15:06:56611

LangChain:為你定制一個專屬的GPT

LangChain 可以輕松管理與語言模型的交互,將多個組件鏈接在一起,并集成額外的資源,例如 API 和數(shù)據(jù)庫。其組件包括了模型(各類LLM),提示模板(Prompts),索引,代理(Agent),記憶等等。
2023-04-24 11:27:23980

如何利用LLM做多模態(tài)任務(wù)?

大型語言模型LLM(Large Language Model)具有很強(qiáng)的通用知識理解以及較強(qiáng)的邏輯推理能力,但其只能處理文本數(shù)據(jù)。雖然已經(jīng)發(fā)布的GPT4具備圖片理解能力,但目前還未開放多模態(tài)輸入接口并且不會透露任何模型上技術(shù)細(xì)節(jié)。因此,現(xiàn)階段,如何利用LLM做一些多模態(tài)任務(wù)還是有一定的研究價值的。
2023-05-11 17:09:16648

如何利用LLM做一些多模態(tài)任務(wù)

本文整理了近兩年來基于LLM做vision-lanuage任務(wù)的一些工作,并將其劃分為4個類別:
2023-05-17 15:02:35575

LangChain簡介

對 ChatGPT 等應(yīng)用著迷?想試驗他們背后的模型嗎?甚至開源/免費(fèi)模型?不要再觀望……LangChain 是必經(jīng)之路……
2023-05-22 09:14:567793

邱錫鵬團(tuán)隊提出具有內(nèi)生跨模態(tài)能力的SpeechGPT,為多模態(tài)LLM指明方向

大型語言模型(LLM)在各種自然語言處理任務(wù)上表現(xiàn)出驚人的能力。與此同時,多模態(tài)大型語言模型,如 GPT-4、PALM-E 和 LLaVA,已經(jīng)探索LLM 理解多模態(tài)信息的能力。然而,當(dāng)前
2023-05-22 14:38:06417

LLM性能的主要因素

現(xiàn)在是2023年5月,截止目前,網(wǎng)絡(luò)上已經(jīng)開源了眾多的LLM,如何用較低的成本,判斷LLM的基礎(chǔ)性能,選到適合自己任務(wù)的LLM,成為一個關(guān)鍵。 本文會涉及以下幾個問題: 影響LLM性能的主要因素
2023-05-22 15:26:201148

如何利用LLM做多模態(tài)任務(wù)?

大型語言模型LLM(Large Language Model)具有很強(qiáng)的通用知識理解以及較強(qiáng)的邏輯推理能力,但其只能處理文本數(shù)據(jù)。雖然已經(jīng)發(fā)布的GPT4具備圖片理解能力,但目前還未開放多模態(tài)輸入接口
2023-05-22 15:57:33466

如何最好地使用所有可用的 LLM 工具

鑒于價格和質(zhì)量的廣泛差異,從業(yè)者可能很難決定如何最好地使用所有可用的 LLM 工具。此外,如果服務(wù)中斷,則依賴單個 API 提供者是不可靠的,這可能發(fā)生在意外高需求的情況下。
2023-05-23 17:22:30525

LLM在各種情感分析任務(wù)中的表現(xiàn)如何

? 最近幾年,GPT-3、PaLM和GPT-4等LLM刷爆了各種NLP任務(wù),特別是在zero-shot和few-shot方面表現(xiàn)出它們強(qiáng)大的性能。因此,情感分析(SA)領(lǐng)域也必然少不了LLM的影子
2023-05-29 17:24:411379

微軟將向美國政府客戶提供OpenAI的GPT模型

微軟增加了對大型語言模型(llm)的支持。openai推出chatgpt后,llm的使用大幅增加,微軟持有openai的股份,許多類型的公司爭相在llm構(gòu)建功能。
2023-06-08 10:35:43759

大型語言模型(LLM)的自定義訓(xùn)練:包含代碼示例的詳細(xì)指南

近年來,像 GPT-4 這樣的大型語言模型 (LLM) 因其在自然語言理解和生成方面的驚人能力而受到廣泛關(guān)注。但是,要根據(jù)特定任務(wù)或領(lǐng)域定制LLM,定制培訓(xùn)是必要的。本文提供了有關(guān)自定義訓(xùn)練 LLM 的詳細(xì)分步指南,其中包含代碼示例和示例。
2023-06-12 09:35:431783

Macaw-LLM:具有圖像、音頻、視頻和文本集成的多模態(tài)語言建模

盡管指令調(diào)整的大型語言模型 (LLM) 在各種 NLP 任務(wù)中表現(xiàn)出卓越的能力,但它們在文本以外的其他數(shù)據(jù)模式上的有效性尚未得到充分研究。在這項工作中,我們提出了 Macaw-LLM,一種新穎的多模式 LLM,它無縫集成了視覺、音頻和文本信息。
2023-06-19 10:35:33876

基于Transformer的大型語言模型(LLM)的內(nèi)部機(jī)制

本文旨在更好地理解基于 Transformer 的大型語言模型(LLM)的內(nèi)部機(jī)制,以提高它們的可靠性和可解釋性。 隨著大型語言模型(LLM)在使用和部署方面的不斷增加,打開黑箱并了解它們的內(nèi)部
2023-06-25 15:08:49991

基于一個完整的 LLM 訓(xùn)練流程

? ? 在這篇文章中,我們將盡可能詳細(xì)地梳理一個完整的 LLM 訓(xùn)練流程。包括模型預(yù)訓(xùn)練(Pretrain)、Tokenizer 訓(xùn)練、指令微調(diào)(Instruction Tuning)等環(huán)節(jié)。 文末
2023-06-29 10:08:591202

LangChain跑起來的3個方法

使用 LangChain 開發(fā) LLM 應(yīng)用時,需要機(jī)器進(jìn)行 GLM 部署,好多同學(xué)第一步就被勸退了,
2023-07-05 09:59:06797

最新綜述!當(dāng)大型語言模型(LLM)遇上知識圖譜:兩大技術(shù)優(yōu)勢互補(bǔ)

LLM 是黑箱模型,缺乏可解釋性,因此備受批評。LLM 通過參數(shù)隱含地表示知識。因此,我們難以解釋和驗證 LLM 獲得的知識。此外,LLM 是通過概率模型執(zhí)行推理,而這是一個非決斷性的過程。對于 LLM 用以得出預(yù)測結(jié)果和決策的具體模式和功能,人類難以直接獲得詳情和解釋。
2023-07-10 11:35:001354

什么是LangChain?深入地了解一下LangChain

在日常生活中,我們通常致力于構(gòu)建端到端的應(yīng)用程序。有許多自動機(jī)器學(xué)習(xí)平臺和持續(xù)集成/持續(xù)交付(CI/CD)流水線可用于自動化我們的機(jī)器學(xué)習(xí)流程。我們還有像 Roboflow 和 Andrew N.G. 的 Landing AI 這樣的工具,可以自動化或創(chuàng)建端到端的計算機(jī)視覺應(yīng)用程序。
2023-07-14 09:50:5715274

適用于各種NLP任務(wù)的開源LLM的finetune教程~

ChatGLM2-6b是清華開源的小尺寸LLM,只需要一塊普通的顯卡(32G較穩(wěn)妥)即可推理和微調(diào),是目前社區(qū)非?;钴S的一個開源LLM。
2023-07-24 09:04:221311

LLM對程序員的沖擊和影響

LLM 對軟件研發(fā)的單點(diǎn)提效,我之前錄制過一段視頻,大家可以直接觀看,里面有詳細(xì)的演示,我在這里就不再贅述了。
2023-07-24 15:39:06766

LLM的長度外推淺談

蘇神最早提出的擴(kuò)展LLM的context方法,基于bayes啟發(fā)得到的公式
2023-07-28 17:37:431484

MLC-LLM的編譯部署流程

MLC-LLM部署在各種硬件平臺的需求,然后我就開始了解MLC-LLM的編譯部署流程和RWKV World模型相比于MLC-LLM已經(jīng)支持的Raven系列模型的特殊之處。 MLC-LLM的編譯部署流程
2023-09-04 09:22:461569

檢索增強(qiáng)LLM的方案全面的介紹

分分享了 ChatGPT 這類模型是如何一步一步訓(xùn)練的,后半部分主要分享了 LLM 模型的一些應(yīng)用方向,其中就對檢索增強(qiáng) LLM 這個應(yīng)用方向做了簡單介紹。
2023-09-08 16:39:55799

mlc-llm對大模型推理的流程及優(yōu)化方案

在 MLC-LLM 部署RWKV World系列模型實戰(zhàn)(3B模型Mac M2解碼可達(dá)26tokens/s) 中提到要使用mlc-llm部署模型首先需要一個編譯過程,將原始的基于Realx搭建的模型
2023-09-26 12:25:55383

新型威脅:探索LLM攻擊對網(wǎng)絡(luò)安全的沖擊

最令人擔(dān)憂的也許是,目前尚不清楚 LLM 提供商是否能夠完全修復(fù)此類行為。在過去的 10 年里,在計算機(jī)視覺領(lǐng)域,類似的對抗性攻擊已經(jīng)被證明是一個非常棘手的問題。有可能深度學(xué)習(xí)模型根本就無法避免這種威脅。因此,我們認(rèn)為,在增加對此類人工智能模型的使用和依賴時,應(yīng)該考慮到這些因素。
2023-10-11 16:28:37482

Continuous Batching:解鎖LLM潛力!讓LLM推斷速度飆升23倍,降低延遲!

本文介紹一篇 LLM 推理加速技術(shù) 相關(guān)的文章,值得讀一讀。 LLMs 在現(xiàn)實應(yīng)用中的計算成本主要由服務(wù)成本所主導(dǎo),但是傳統(tǒng)的批處理策略存在低效性。在這篇文章中,我們將告訴
2023-10-15 20:25:02292

在線研討會 | 基于 Jetson 邊緣計算平臺構(gòu)建 Azure OpenAI LLM 安全護(hù)欄

,并通過自定義方式響應(yīng)用戶特定的請求,按照預(yù)定義的對話路徑進(jìn)行操作,以及使用特定的語言風(fēng)格進(jìn)行回答等。它的核心價值在于通過 Colang 語言來編寫安全護(hù)欄,來指導(dǎo)、定義和控制 LLM 驅(qū)動的對話機(jī)器人在特定主題上的行為,從而構(gòu)建可靠、安全的 LLM 對話系統(tǒng)。 如何在
2023-10-21 16:35:03215

Hugging Face LLM部署大語言模型到亞馬遜云科技Amazon SageMaker推理示例

?本篇文章主要介紹如何使用新的Hugging Face LLM推理容器將開源LLMs,比如BLOOM大型語言模型部署到亞馬遜云科技Amazon SageMaker進(jìn)行推理的示例。我們將部署12B
2023-11-01 17:48:42422

LLM的Transformer是否可以直接處理視覺Token?

多種LLM Transformer都可以提升Visual Encoding。例如用LLaMA和OPT的不同Transformer層都會有提升,而且不同層之間也會體現(xiàn)不同的規(guī)律。
2023-11-03 14:10:15181

NVIDIA AI Foundation Models:使用生產(chǎn)就緒型 LLM 構(gòu)建自定義企業(yè)聊天機(jī)器人和智能副駕

? 系列基礎(chǔ)模型是一套功能強(qiáng)大的全新工具,可用于為企業(yè)構(gòu)建生產(chǎn)就緒生成式 AI 應(yīng)用,從而推動從客服 AI 聊天機(jī)器人到尖端 AI 產(chǎn)品的各種創(chuàng)新。 這些新的基礎(chǔ)模型現(xiàn)已加入? NVIDIA NeMo 。這個端到端框架用于構(gòu)建、自定義和部署專為企業(yè)定制的 LLM。企業(yè)現(xiàn)在可以使用這些工具快速
2023-11-17 21:35:01469

LLM的幻覺問題最新綜述

幻覺被描述為無意義或不忠實于所提供源內(nèi)容的生成內(nèi)容。根據(jù)與源內(nèi)容的矛盾,這些幻覺又進(jìn)一步分為內(nèi)在幻覺和外在幻覺。在LLMs中,幻覺的范圍包含了一個更廣泛、更全面的概念,主要集中在事實錯誤上。本文重新定義了幻覺的分類,為LLM應(yīng)用程序提供了一個更定制的框架。
2023-11-22 17:40:41467

基于單一LLM的情感分析方法的局限性

LLM的發(fā)展為情感分析任務(wù)帶來的新的解決方案。有研究人員使用LLM,在上下文學(xué)習(xí)(in-context learning, ICL)的范式下,僅使用少量的訓(xùn)練示例就能夠?qū)崿F(xiàn)與監(jiān)督學(xué)習(xí)策略旗鼓相當(dāng)?shù)男阅鼙憩F(xiàn)。
2023-11-23 11:14:27322

基于Redis Enterprise,LangChain,OpenAI 構(gòu)建一個電子商務(wù)聊天機(jī)器人

鑒于最近人工智能支持的API和網(wǎng)絡(luò)開發(fā)工具的激增,許多科技公司都在將聊天機(jī)器人集成到他們的應(yīng)用程序中。LangChain是一種備受歡迎的新框架,近期引起了廣泛關(guān)注。該框架旨在簡化開發(fā)人員與語言模型
2023-11-25 08:04:13178

專欄發(fā)布 | LLM圈走馬換將?微軟廣告“黑五”來襲 !

過 去一年并不平凡 。 從去年11月至今,LLM大型語言模型持續(xù)破圈、始終盤踞熱點(diǎn)話題之列。 根據(jù)Adobe Analytics的最新在線購物預(yù)測,感恩節(jié)本土市場假日季的在線收入,或?qū)⒂?/div>
2023-11-27 08:15:02215

Long-Context下LLM模型架構(gòu)全面介紹

隨著ChatGPT的快速發(fā)展,基于Transformer的大型語言模型(LLM)為人工通用智能(AGI)鋪平了一條革命性的道路,并已應(yīng)用于知識庫、人機(jī)界面和動態(tài)代理等不同領(lǐng)域。然而,存在一個普遍
2023-11-27 17:37:36440

Ambarella展示了在其CV3-AD芯片上運(yùn)行LLM的能力

Ambarella前不久展示了在其CV3-AD芯片上運(yùn)行LLM的能力。這款芯片是CV3系列中最強(qiáng)大的,專為自動駕駛設(shè)計。
2023-11-28 09:05:311192

怎樣使用Accelerate庫在多GPU上進(jìn)行LLM推理呢?

大型語言模型(llm)已經(jīng)徹底改變了自然語言處理領(lǐng)域。隨著這些模型在規(guī)模和復(fù)雜性上的增長,推理的計算需求也顯著增加。
2023-12-01 10:24:52396

如何利用OpenVINO加速LangChainLLM任務(wù)

LangChain 是一個高層級的開源的框架,從字面意義理解,LangChain 可以被用來構(gòu)建 “語言處理任務(wù)的鏈條”,它可以讓AI開發(fā)人員把大型語言模型(LLM)的能力和外部數(shù)據(jù)結(jié)合起來,從而
2023-12-05 09:58:14325

全面解析大語言模型(LLM

internal feedback:使用LLM去預(yù)測生成的plan取得成功的概率、Tree of Thought去對比不同的plan(有點(diǎn)類似AlphaGo的蒙特卡諾搜索的意思)、對中間結(jié)果進(jìn)行評估并作為長期記憶存儲
2023-12-05 14:49:47857

一文詳解LLM模型基本架構(gòu)

LLM 中非常重要的一個概念是 Token,我們輸入給 LLM 和它輸出的都是 Token。Token 在這里可以看做語言的基本單位,中文一般是詞或字(其實字也是詞)。比如:”我們喜歡 Rust
2023-12-25 10:38:38657

優(yōu)于10倍參數(shù)模型!微軟發(fā)布Orca 2 LLM

微軟發(fā)布 Orca 2 LLM,這是 Llama 2 的一個調(diào)優(yōu)版本,性能與包含 10 倍參數(shù)的模型相當(dāng),甚至更好。
2023-12-26 14:23:16247

LangChain 0.1版本正式發(fā)布

LangChain 由 Harrison Chase 于 2022 年 10 月推出,是一個開源編排框架,用于使用 LLM 開發(fā)應(yīng)用程序,推出后迅速脫穎而出,截至 2023 年 6 月,它是 GitHub 上增長最快的開源項目。
2024-01-10 10:28:28391

用Redis為LangChain定制AI代理——OpenGPTs

OpenAI最近推出了OpenAIGPTs——一個構(gòu)建定制化AI代理的無代碼“應(yīng)用商店”,隨后LangChain開發(fā)了類似的開源工具OpenGPTs。OpenGPTs是一款低代碼的開源框架,專用
2024-01-13 08:03:59521

虹科分享 | 用Redis為LangChain定制AI代理——OpenGPTs

OpenAI最近推出了OpenAI GPTs——一個構(gòu)建定制化AI代理的無代碼“應(yīng)用商店”,隨后LangChain開發(fā)了類似的開源工具OpenGPTs。OpenGPTs是一款低代碼的開源框架,專用于構(gòu)建定制化的人工智能代理。
2024-01-18 10:39:08121

2023年LLM大模型研究進(jìn)展

作為做LLM應(yīng)用的副產(chǎn)品,我們提出了RLCD[11],通過同時使用正例和負(fù)例prompt,自動生成帶標(biāo)簽的生成樣本不需人工標(biāo)注,然后可以接大模型微調(diào),或者用于訓(xùn)練reward models
2024-01-19 13:55:33178

LLM推理加速新范式!推測解碼(Speculative Decoding)最新綜述

這個問題隨著LLM規(guī)模的增大愈發(fā)嚴(yán)重。并且,如下左圖所示,目前LLM常用的自回歸解碼(autoregressive decoding)在每個解碼步只能生成一個token。這導(dǎo)致GPU計算資源利用率
2024-01-29 15:54:24261

100%在樹莓派上執(zhí)行的LLM項目

ChatGPT的人性口語化回復(fù)相信許多人已體驗過,也因此掀起一波大型語言模型(Large Language Model, LLM)熱潮,LLM即ChatGPT背后的主運(yùn)作技術(shù),但LLM運(yùn)作需要龐大運(yùn)算力,因此目前多是在云端(Cloud)上執(zhí)行。
2024-02-29 16:29:59476

基于NVIDIA Megatron Core的MOE LLM實現(xiàn)和訓(xùn)練優(yōu)化

本文將分享阿里云人工智能平臺 PAI 團(tuán)隊與 NVIDIA Megatron-Core 團(tuán)隊在 MoE (Mixture of Experts) 大語言模型(LLM)實現(xiàn)與訓(xùn)練優(yōu)化上的創(chuàng)新工作。
2024-03-22 09:50:3758

已全部加載完成