0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

針對(duì)文本生成任務(wù)提出一種基于提示的遷移學(xué)習(xí)方法

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:RUC AI Box ? 作者:李軍毅 ? 2022-09-23 15:41 ? 次閱讀

本文將介紹我們已發(fā)表在NAACL 2022的兩篇論文,分別關(guān)注預(yù)訓(xùn)練語(yǔ)言模型的能力評(píng)測(cè)與提示遷移學(xué)習(xí)。預(yù)訓(xùn)練語(yǔ)言模型在廣泛的任務(wù)中取得了不錯(cuò)的效果,但是對(duì)于預(yù)訓(xùn)練模型的語(yǔ)言能力仍缺乏系統(tǒng)性的評(píng)估與判斷。面對(duì)這一難題,我們提出了一個(gè)針對(duì)預(yù)訓(xùn)練語(yǔ)言模型的通用語(yǔ)言能力測(cè)試(ElitePLM),從記憶、理解、推理和創(chuàng)作四個(gè)能力維度評(píng)估5類10個(gè)預(yù)訓(xùn)練模型的語(yǔ)言能力,希望為后續(xù)研究提供選擇、應(yīng)用、解釋和設(shè)計(jì)預(yù)訓(xùn)練模型的參考指導(dǎo)。另外,目前預(yù)訓(xùn)練語(yǔ)言模型大多采用微調(diào)(fine-tuning)范式適應(yīng)文本生成任務(wù),但這一范式難以應(yīng)對(duì)數(shù)據(jù)稀疏的場(chǎng)景。因此,我們采用提示學(xué)習(xí)(prompt-based learning)構(gòu)建一個(gè)通用、統(tǒng)一且可遷移的文本生成模型PTG,在全樣本與少樣本場(chǎng)景下都具有不俗的表現(xiàn)。

一、預(yù)訓(xùn)練語(yǔ)言模型的能力評(píng)測(cè)

背景

近年來(lái),預(yù)訓(xùn)練語(yǔ)言模型(PLMs)在各種各樣的任務(wù)上取得了非常不錯(cuò)的結(jié)果。因此,如何從多個(gè)方面系統(tǒng)性地評(píng)估預(yù)訓(xùn)練模型的語(yǔ)言能力成為一個(gè)非常重要的研究話題,這有助于研究者為特定任務(wù)選擇合適的預(yù)訓(xùn)練語(yǔ)言模型。目前相關(guān)的研究工作往往聚焦于單個(gè)能力的評(píng)估,或者只考慮很少部分的任務(wù),缺乏系統(tǒng)的設(shè)計(jì)與測(cè)試。為了解決這一難題,我們針對(duì)預(yù)訓(xùn)練語(yǔ)言模型提出了一個(gè)通用語(yǔ)言能力測(cè)試(ElitePLM),從記憶、理解、推理、創(chuàng)作四個(gè)方面評(píng)估預(yù)訓(xùn)練模型的語(yǔ)言能力。

通用語(yǔ)言能力測(cè)試

評(píng)測(cè)模型

為了保證測(cè)試模型的廣泛性與代表性,我們選擇了五類預(yù)訓(xùn)練模型進(jìn)行測(cè)試:

Bidirectional LMs: BERT, RoBERTa, ALBERT;

Unidirectional LMs: GPT-2;

Hybrid LMs: XLNet, UniLM;

Knowledge-enhanced LMs: ERNIE;

Text-to-Text LMs: BART, T5, ProphetNet;

記憶能力(Memory)

記憶是人類最基本的能力。ElitePLM將評(píng)估預(yù)訓(xùn)練語(yǔ)言模型在預(yù)訓(xùn)練階段記住的知識(shí)與語(yǔ)言模式,因此我們采用LAMA與Wikipedia兩個(gè)數(shù)據(jù)集。LAMA是常用的知識(shí)探針數(shù)據(jù)集,Wikipedia是廣泛使用的預(yù)訓(xùn)練語(yǔ)料,這兩個(gè)數(shù)據(jù)集都將轉(zhuǎn)化為填空式問(wèn)題進(jìn)行測(cè)試,評(píng)測(cè)指標(biāo)為Precision@1。評(píng)測(cè)結(jié)果如下圖所示(更多結(jié)果見原論文和附錄)??梢钥闯?,RoBERTa采用雙向的訓(xùn)練目標(biāo)和一些魯棒的訓(xùn)練策略取得了最好的效果,因此預(yù)訓(xùn)練目標(biāo)和策略反映了模型記憶信息的方式,深刻影響模型的記憶能力。

fd387450-3afe-11ed-9e49-dac502259ad0.png

理解能力(Comprehension)

理解是一個(gè)復(fù)雜且多面的能力,包括對(duì)文本詞匯、背景知識(shí)、語(yǔ)言結(jié)構(gòu)的理解。因此,我們采用GLUE, SuperGLUE, SQuAD v1.1, SQuAD v2.0和RACE五個(gè)數(shù)據(jù)集對(duì)預(yù)訓(xùn)練模型理解詞匯、背景知識(shí)和語(yǔ)言結(jié)構(gòu)進(jìn)行評(píng)測(cè)。GLUE的評(píng)測(cè)結(jié)果如下圖所示(更多結(jié)果見原論文和附錄)??梢钥闯觯谟洃洔y(cè)試上表現(xiàn)良好的模型(如RoBERTa,XLNet)在理解測(cè)試上也具有優(yōu)異的表現(xiàn),因此記憶能力的改善有助于提升理解能力。

fd56458e-3afe-11ed-9e49-dac502259ad0.png

推理能力(Reasoning)

推理是建立在文本理解的基礎(chǔ)上,ElitePLM中主要關(guān)注三種推理模式:常識(shí)推理、演繹推理和溯因推理。因此,我們采用CommonsenseQA, ROCStories, SWAG, HellaSwag, Sense Making和ARCT六個(gè)數(shù)據(jù)集對(duì)上述三種推理進(jìn)行評(píng)測(cè)。評(píng)測(cè)結(jié)果如下圖所示(更多結(jié)果見原論文和附錄)。可以看出,ALBERT采用inter-sentence coherence預(yù)訓(xùn)練目標(biāo)在推理測(cè)試中取得了不錯(cuò)的效果,因此句子級(jí)推理目標(biāo)可以提升預(yù)訓(xùn)練模型的推理能力。雖然引入了知識(shí),但是ERNIE在知識(shí)相關(guān)的數(shù)據(jù)集CommonsenseQA中表現(xiàn)平平,因此需要設(shè)計(jì)更加有效的知識(shí)融合方式。

fd7471f8-3afe-11ed-9e49-dac502259ad0.png

創(chuàng)作能力(Composition)

創(chuàng)作也就是從無(wú)到有生成新文本,它不僅需要模型對(duì)相關(guān)內(nèi)容的理解,還需要推理出合適的上下文。因?yàn)椋覀儾捎肳ritingPrompts——故事生成, CNN/Daily Mail, GigaWord——摘要生成和SQuAD v1.1——問(wèn)題生成四個(gè)數(shù)據(jù)集對(duì)模型的創(chuàng)作能力進(jìn)行測(cè)試,其中故事生成為長(zhǎng)文本生成任務(wù),摘要生成與問(wèn)題生成為短文本生成任務(wù)。評(píng)測(cè)結(jié)果如下圖所示(更多結(jié)果見原論文和附錄)。可以看出,denoising預(yù)訓(xùn)練目標(biāo)更有利于短文本生成,left-to-right預(yù)訓(xùn)練目標(biāo)更有利于長(zhǎng)文本生成。

fd87e846-3afe-11ed-9e49-dac502259ad0.png

結(jié)論

基于對(duì)預(yù)訓(xùn)練語(yǔ)言模型的記憶、理解、推理和創(chuàng)作能力的測(cè)試,我們發(fā)現(xiàn):(1)使用不同預(yù)訓(xùn)練目標(biāo)和策略的模型擅長(zhǎng)不同的任務(wù),比如基于雙向目標(biāo)的BERT和使用魯棒訓(xùn)練策略的RoBERTa能夠很好地記憶預(yù)訓(xùn)練語(yǔ)料,使用permutation language modeling的XLNet在理解任務(wù)中可以有效地建模雙向的上下文信息,使用inter-sentence coherence目標(biāo)的ALBERT在句子級(jí)推理任務(wù)中更合適;(2)在微調(diào)預(yù)訓(xùn)練模型時(shí),他們的表現(xiàn)受到目標(biāo)領(lǐng)域數(shù)據(jù)分布的影響比較大;(3)預(yù)訓(xùn)練模型在相似任務(wù)中的遷移能力出人意料的良好,特別是推理任務(wù)。ElitePLM除了作為預(yù)訓(xùn)練語(yǔ)言模型能力測(cè)試的基準(zhǔn),我們還開放了所有數(shù)據(jù)集的測(cè)試結(jié)果,基于這些測(cè)試結(jié)果,研究者可以對(duì)預(yù)訓(xùn)練模型在每種能力上的表現(xiàn)進(jìn)行更加深入的分析。例如,我們?cè)谡撐闹蟹治隽四P驮赒A任務(wù)上的測(cè)試結(jié)果,發(fā)現(xiàn)預(yù)訓(xùn)練模型對(duì)于復(fù)雜的答案類型仍然有待提高,此外,我們也對(duì)模型的創(chuàng)作文本進(jìn)行了圖靈測(cè)試。

總之,ElitePLM希望能夠幫助研究者建立健全的原則,以在實(shí)際應(yīng)用中選擇、應(yīng)用、解釋和設(shè)計(jì)預(yù)訓(xùn)練模型。

二、 預(yù)訓(xùn)練語(yǔ)言模型的提示遷移

背景

目前大部分預(yù)訓(xùn)練語(yǔ)言模型都采用微調(diào)(fine-tuning)的方式來(lái)適應(yīng)文本生成任務(wù)。但是,在現(xiàn)實(shí)中,我們常常遇到只有少量標(biāo)注數(shù)據(jù)、難以進(jìn)行微調(diào)的場(chǎng)景。我們知道,大部分文本生成任務(wù)都采用相似的學(xué)習(xí)機(jī)制例如Seq2Seq,預(yù)訓(xùn)練語(yǔ)言模型如GPT也展現(xiàn)了構(gòu)建通用且可遷移框架的重要性?;谏鲜瞿繕?biāo),我們采用提示學(xué)習(xí)(prompt-based learning)構(gòu)建一個(gè)通用、統(tǒng)一且可遷移的文本生成模型PTG,特別是對(duì)于數(shù)據(jù)稀疏的場(chǎng)景。

形式化定義

給定輸入文本與輸出文本,文本生成任務(wù)的目標(biāo)是最大化條件生成概率。本文采用連續(xù)提示,其中為提示向量數(shù)目,最終的訓(xùn)練目標(biāo)為。在遷移學(xué)習(xí)下,我們有一系列源任務(wù),其中第個(gè)源任務(wù) 包含條輸入文本與輸出文本,遷移學(xué)習(xí)的目標(biāo)是利用在源任務(wù)中學(xué)習(xí)到的知識(shí)解決目標(biāo)任務(wù)。在本文中,我們考慮一種基于提示學(xué)習(xí)的新型遷移學(xué)習(xí)框架:針對(duì)每個(gè)源任務(wù),我們學(xué)習(xí)獨(dú)立的source prompt , 然后將這些已學(xué)習(xí)的prompt遷移到目標(biāo)任務(wù)。

fdb3c3bc-3afe-11ed-9e49-dac502259ad0.png

模型

在這一過(guò)程,我們需要解決兩個(gè)核心挑戰(zhàn):(1)已有研究表明prompt是高度任務(wù)特定的,因此對(duì)于新任務(wù)來(lái)說(shuō)需要有效的遷移及重用prompt機(jī)制;(2)對(duì)于單個(gè)任務(wù)而言,一個(gè)prompt顯然不足以應(yīng)對(duì)大量不同的數(shù)據(jù)樣本,因此有必要在prompt遷移過(guò)程中考慮任務(wù)于樣本的雙重特征。

學(xué)習(xí)可遷移的Source Prompts

對(duì)于每個(gè)源任務(wù),基于共享的一個(gè)凍結(jié)PLM,使用訓(xùn)練數(shù)據(jù)和訓(xùn)練目標(biāo)學(xué)習(xí)source prompt ,這些prompt將存儲(chǔ)在一個(gè)source prompt pool中,記為。構(gòu)建提示池的目的是為了將提示共享給所有目標(biāo)任務(wù),同時(shí)在遷移時(shí)考慮任務(wù)間的相似性。

如何衡量任務(wù)間的相似性?我們通過(guò)譜聚類的方式將source prompts進(jìn)行聚簇,每個(gè)prompt將被看作是有權(quán)無(wú)向圖上的一個(gè)節(jié)點(diǎn),然后采用min-max cut策略進(jìn)行分割,最后得到所有簇,每個(gè)prompt屬于其中某個(gè)簇,簇中的prompt認(rèn)為具有任務(wù)間的相似性。

有了上述結(jié)構(gòu),我們將構(gòu)建一個(gè)multi-key記憶網(wǎng)絡(luò),對(duì)于簇中的一個(gè)source prompt ,它與一個(gè)可學(xué)習(xí)的cluster key 和一個(gè)可學(xué)習(xí)的prompt key 進(jìn)行聯(lián)結(jié),即:

fde6ab38-3afe-11ed-9e49-dac502259ad0.png

遷移Instance Adaptive Prompts

在遷移prompt過(guò)程中,我們需要考慮任務(wù)特征與樣本特征,因此我們?cè)O(shè)計(jì)了一個(gè)自適應(yīng)的注意力機(jī)制,高效地學(xué)習(xí)target prompt來(lái)解決目標(biāo)任務(wù)。

對(duì)于目標(biāo)任務(wù)中的一個(gè)樣本,我們使用task query和instance query從提示池中選擇合適的source prompts來(lái)學(xué)習(xí)新的target prompt以解決目標(biāo)任務(wù)的樣本。Task query被定義為一個(gè)任務(wù)特定的可學(xué)習(xí)向量,instance query則需要考慮樣本輸入的特征,我們使用一個(gè)凍結(jié)的BERT計(jì)算,即,對(duì)BERT頂層每個(gè)單詞的表示采用平均池化操作。對(duì)于提示池中的prompt ,我們使用task query和instance query計(jì)算匹配分?jǐn)?shù):

fdf3ee9c-3afe-11ed-9e49-dac502259ad0.png

最終,對(duì)于目標(biāo)任務(wù)中的樣本,我們學(xué)習(xí)到的target prompt為。基于此,我們?cè)谀繕?biāo)任務(wù)上的訓(xùn)練目標(biāo)為:

fe0929d8-3afe-11ed-9e49-dac502259ad0.png

實(shí)驗(yàn)結(jié)果

在實(shí)驗(yàn)中,我們選擇三類生成任務(wù)的14個(gè)數(shù)據(jù)集:compression(包括摘要生成和問(wèn)題生成)、transduction(包括風(fēng)格遷移和文本復(fù)述)以及creation(包括對(duì)話和故事生成)。數(shù)據(jù)集統(tǒng)計(jì)如下表所示。

fe13fb92-3afe-11ed-9e49-dac502259ad0.png

基準(zhǔn)模型方面,我們選擇了預(yù)訓(xùn)練語(yǔ)言模型(GPT-2, BART和T5)、Prefix-Tuning、SPoT和Multi-task Tuning,并分別在全樣本與少樣本兩種場(chǎng)景下進(jìn)行任務(wù)間遷移與數(shù)據(jù)集間遷移的測(cè)試。

全樣本場(chǎng)景

對(duì)于任務(wù)間遷移實(shí)驗(yàn),我們考慮兩種情況:(1)目標(biāo)任務(wù)和數(shù)據(jù)集為摘要生成(CNN/Daily Mail),其他五種任務(wù)為源任務(wù);(2)目標(biāo)任務(wù)和數(shù)據(jù)集為對(duì)話(PersonaChat),其他五種任務(wù)為源任務(wù)。

對(duì)于數(shù)據(jù)集間遷移實(shí)驗(yàn),我們同樣也考慮兩種情況:(1)在摘要生成任務(wù)下,目標(biāo)數(shù)據(jù)集為CNN/Daily Mail或者XSUM,其他摘要數(shù)據(jù)集為源數(shù)據(jù)集;(2)在對(duì)話任務(wù)下,目標(biāo)數(shù)據(jù)集為PersonaChat或者DailyDialog,其他對(duì)話數(shù)據(jù)集為源數(shù)據(jù)集。

實(shí)驗(yàn)結(jié)果如下表所示??梢钥吹剑ㄟ^(guò)將prompt從源任務(wù)遷移到目標(biāo)任務(wù),PTG超越了GPT-2, BART, T5和Prefix-Tuning,這表明提示遷移提供了一種非常有效的預(yù)訓(xùn)練語(yǔ)言模型微調(diào)方式。其次,PTG也超越了同樣基于提示遷移的方法SPoT,這是因?yàn)镾PoT在遷移時(shí)僅僅使用source prompt初始化target prompt。最后,PTG與Multi-task Tuning表現(xiàn)相當(dāng)甚至超越其表現(xiàn)。這表明簡(jiǎn)單地混合所有任務(wù)進(jìn)行微調(diào)并不足以應(yīng)對(duì)文本生成任務(wù)的復(fù)雜性。

fe23757c-3afe-11ed-9e49-dac502259ad0.png

少樣本場(chǎng)景

少樣本實(shí)驗(yàn)下的任務(wù)間遷移與數(shù)據(jù)集間遷移設(shè)置與全樣本場(chǎng)景一致。除此以外,我們減少目標(biāo)任務(wù)與數(shù)據(jù)集的訓(xùn)練樣本數(shù)目為{50, 100, 200, 500}。對(duì)于每個(gè)數(shù)目,我們?cè)?中隨機(jī)種子下分別進(jìn)行5次實(shí)驗(yàn),最終結(jié)果為10次實(shí)驗(yàn)的平均結(jié)果。

實(shí)驗(yàn)結(jié)果如下表所示??梢钥吹?,少樣本場(chǎng)景下PTG取得了與最強(qiáng)基準(zhǔn)模型Multi-task Tuning相當(dāng)?shù)谋憩F(xiàn),甚至超越其表現(xiàn),這也進(jìn)一步說(shuō)明了我們方法的有效性。

fe66de3e-3afe-11ed-9e49-dac502259ad0.png

消融實(shí)驗(yàn)

此外,我們還設(shè)置了消融實(shí)驗(yàn),探究不同模塊對(duì)模型表現(xiàn)的影響,包括提示池(prompt pool)、提示聚簇(prompt cluster)、multi-key記憶網(wǎng)絡(luò)(multi-key memory network)和樣本級(jí)特征(instance-level query)。實(shí)驗(yàn)結(jié)果如下表所示。

fe7a543c-3afe-11ed-9e49-dac502259ad0.png

任務(wù)間相似性分析

我們針對(duì)源任務(wù)上學(xué)習(xí)到的source prompts做了源任務(wù)間的相似性分析,下圖展示了prompt之間余弦相似度的熱力圖??梢钥闯?,6個(gè)任務(wù)14個(gè)數(shù)據(jù)集大致可以分為3類,這與我們選擇數(shù)據(jù)集的類別基本吻合。

fe8cc8ec-3afe-11ed-9e49-dac502259ad0.png

結(jié)論

本文針對(duì)文本生成任務(wù)提出一種基于提示的遷移學(xué)習(xí)方法。通過(guò)在源任務(wù)學(xué)習(xí)一系列的源提示,模型將這些提示遷移到目標(biāo)任務(wù)以解決下游任務(wù)。在模型中,我們?cè)O(shè)計(jì)了一種自適應(yīng)注意力機(jī)制,在提示遷移時(shí)考慮任務(wù)特征和樣本特征。在大量實(shí)驗(yàn)上的結(jié)果表明,我們的方法要優(yōu)于基準(zhǔn)辦法。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    487

    瀏覽量

    10201
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1197

    瀏覽量

    24538
  • 遷移學(xué)習(xí)
    +關(guān)注

    關(guān)注

    0

    文章

    74

    瀏覽量

    5536

原文標(biāo)題:NAACL'22 | 預(yù)訓(xùn)練模型哪家強(qiáng)?提示遷移學(xué)習(xí)為文本生成提供新思路

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    語(yǔ)言的表達(dá)方式和生成能力。通過(guò)預(yù)測(cè)文本中缺失的部分或下個(gè)詞,模型逐漸掌握語(yǔ)言的規(guī)律和特征。 常用的模型結(jié)構(gòu) Transformer架構(gòu):大語(yǔ)言模型通?;赥ransformer架構(gòu),這是
    發(fā)表于 08-02 11:03

    Whatsapp正在開發(fā)一種新的生成人工智能功能

    據(jù)悉,Whatsapp正在開發(fā)一種新的生成人工智能功能,該功能應(yīng)允許用戶制作自己的個(gè)性化頭像,用于任何想象中的場(chǎng)景。WABetaInfo在新的Android版WhatsApp測(cè)試版2.24.14.7
    的頭像 發(fā)表于 07-14 17:50 ?836次閱讀

    深度學(xué)習(xí)中的無(wú)監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實(shí)現(xiàn)。因此,無(wú)監(jiān)督學(xué)習(xí)在深度學(xué)習(xí)中扮演著越來(lái)越重要的角色。本文旨在綜述深度學(xué)習(xí)中的無(wú)監(jiān)督學(xué)習(xí)方法,包括自編碼器、生成對(duì)抗網(wǎng)絡(luò)、
    的頭像 發(fā)表于 07-09 10:50 ?216次閱讀

    遷移學(xué)習(xí)的基本概念和實(shí)現(xiàn)方法

    遷移學(xué)習(xí)(Transfer Learning)是機(jī)器學(xué)習(xí)領(lǐng)域中的個(gè)重要概念,其核心思想是利用在個(gè)任務(wù)
    的頭像 發(fā)表于 07-04 17:30 ?724次閱讀

    生成式AI的基本原理和應(yīng)用領(lǐng)域

    生成式人工智能(Generative Artificial Intelligence,簡(jiǎn)稱Generative AI)是一種利用機(jī)器學(xué)習(xí)算法和深度學(xué)習(xí)技術(shù),通過(guò)模擬人類的創(chuàng)造性思維過(guò)程
    的頭像 發(fā)表于 07-04 11:50 ?456次閱讀

    如何手?jǐn)]個(gè)自有知識(shí)庫(kù)的RAG系統(tǒng)

    用于自然語(yǔ)言處理任務(wù),如文本生成、問(wèn)答系統(tǒng)等。 我們通過(guò)下幾個(gè)步驟來(lái)完成個(gè)基于京東云官網(wǎng)文檔的RAG系統(tǒng) 數(shù)據(jù)收集 建立知識(shí)庫(kù) 向量檢索 提示
    的頭像 發(fā)表于 06-17 14:59 ?352次閱讀

    谷歌提出大規(guī)模ICL方法

    谷歌DeepMind團(tuán)隊(duì)近日取得了項(xiàng)突破性的研究成果。他們提出了強(qiáng)化和無(wú)監(jiān)督兩新型的ICL(In-Context Learning)學(xué)習(xí)方法,這
    的頭像 發(fā)表于 05-14 14:17 ?262次閱讀

    一種利用光電容積描記(PPG)信號(hào)和深度學(xué)習(xí)模型對(duì)高血壓分類的新方法

    使用的方法將在以下部分中詳細(xì)闡述。 AlexNet是一種深度卷積神經(jīng)網(wǎng)絡(luò),由Alex Krizhevsky、Ilya Sutskever和Geoffrey Hinton在2012年提出。整體結(jié)構(gòu)由5個(gè)卷積
    發(fā)表于 05-11 20:01

    【大語(yǔ)言模型:原理與工程實(shí)踐】揭開大語(yǔ)言模型的面紗

    學(xué)習(xí)能力。這些模型以生成能力強(qiáng)和靈活性強(qiáng)為特點(diǎn),逐漸演變成一種通用計(jì)算平臺(tái)。其參數(shù)多樣性、生成能力和涌現(xiàn)性使其不僅在自然語(yǔ)言處理領(lǐng)域表現(xiàn)出色,還能適應(yīng)多種復(fù)雜
    發(fā)表于 05-04 23:55

    檢索增強(qiáng)生成(RAG)如何助力企業(yè)為各種企業(yè)用例創(chuàng)建高質(zhì)量的內(nèi)容?

    生成式 AI 時(shí)代,機(jī)器不僅要從數(shù)據(jù)中學(xué)習(xí),還要生成類似人類樣的文本、圖像、視頻等。檢索增強(qiáng)生成
    的頭像 發(fā)表于 03-29 15:09 ?697次閱讀

    OpenVINO?協(xié)同Semantic Kernel:優(yōu)化大模型應(yīng)用性能新路徑

    作為主要面向 RAG 任務(wù)方向的框架,Semantic Kernel 可以簡(jiǎn)化大模型應(yīng)用開發(fā)過(guò)程,而在 RAG 任務(wù)中最常用的深度學(xué)習(xí)模型就是 Embedding 和 Text completion,分別實(shí)現(xiàn)
    的頭像 發(fā)表于 03-08 10:41 ?495次閱讀
    OpenVINO?協(xié)同Semantic Kernel:優(yōu)化大模型應(yīng)用性能新路徑

    高級(jí)檢索增強(qiáng)生成技術(shù)(RAG)全面指南

    ChatGPT、Midjourney等生成式人工智能(GenAI)在文本生成、文本到圖像生成任務(wù)中表現(xiàn)出令人印象深刻的性能。
    的頭像 發(fā)表于 12-25 15:16 ?4293次閱讀
    高級(jí)檢索增強(qiáng)<b class='flag-5'>生成</b>技術(shù)(RAG)全面指南

    探索高效的大型語(yǔ)言模型!大型語(yǔ)言模型的高效學(xué)習(xí)方法

    在大型語(yǔ)言模型(LLMs)的應(yīng)用中,提示工程(Prompt Engineering)是一種關(guān)鍵技術(shù),用于引導(dǎo)模型生成特定輸出或執(zhí)行特定任務(wù)。通過(guò)精心設(shè)計(jì)的
    發(fā)表于 12-13 14:21 ?518次閱讀
    探索高效的大型語(yǔ)言模型!大型語(yǔ)言模型的高效<b class='flag-5'>學(xué)習(xí)方法</b>

    《電子工程師必備——九大系統(tǒng)電路識(shí)圖寶典》+附錄5學(xué)習(xí)方法

    從失敗中吸取教訓(xùn),總結(jié)經(jīng)驗(yàn)。每完成個(gè)學(xué)習(xí)任務(wù)或項(xiàng)目后,你都應(yīng)該進(jìn)行反思和總結(jié),以便不斷優(yōu)化自己的學(xué)習(xí)方法,提高學(xué)習(xí)效率。 總之,自主
    發(fā)表于 10-06 23:25

    STM32的學(xué)習(xí)方法

    STM32學(xué)習(xí)方法
    發(fā)表于 09-28 06:18