0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CogBERT:腦認(rèn)知指導(dǎo)的預(yù)訓(xùn)練語言模型

深度學(xué)習(xí)自然語言處理 ? 來源:哈工大SCIR ? 作者:陳薄文 ? 2022-11-03 15:07 ? 次閱讀

介紹

本文研究了利用認(rèn)知語言處理信號(hào)(如眼球追蹤或 EEG 數(shù)據(jù))指導(dǎo) BERT 等預(yù)訓(xùn)練模型的問題?,F(xiàn)有的方法通常利用認(rèn)知數(shù)據(jù)對(duì)預(yù)訓(xùn)練模型進(jìn)行微調(diào),忽略了文本和認(rèn)知信號(hào)之間的語義差距。為了填補(bǔ)這一空白,我們提出了 CogBERT 這個(gè)框架,它可以從認(rèn)知數(shù)據(jù)中誘導(dǎo)出細(xì)粒度的認(rèn)知特征,并通過自適應(yīng)調(diào)整不同 NLP 任務(wù)的認(rèn)知特征的權(quán)重將認(rèn)知特征納入 BERT。

實(shí)驗(yàn)結(jié)果表明:1)認(rèn)知指導(dǎo)下的預(yù)訓(xùn)練模型在 10 個(gè) NLP 任務(wù)上可以一致地比基線預(yù)訓(xùn)練模型表現(xiàn)更好;2)不同的認(rèn)知特征對(duì)不同的 NLP 任務(wù)有不同的貢獻(xiàn)?;谶@一觀察,我們給出為什么認(rèn)知數(shù)據(jù)對(duì)自然語言理解有幫助的一個(gè)細(xì)化解釋;3)預(yù)訓(xùn)練模型的不同 transformer 層應(yīng)該編碼不同的認(rèn)知特征,詞匯級(jí)的認(rèn)知特征在 transformer 層底部,語義級(jí)的認(rèn)知特征在 transformer 層頂部;4)注意力可視化證明了 CogBERT 可以與人類的凝視模式保持一致,并提高其自然語言理解能力。

aa54f22a-5b30-11ed-a3b6-dac502259ad0.png

▲ 圖1. 人類眼球動(dòng)作捕捉數(shù)據(jù)示意圖

背景與簡(jiǎn)介

隨著預(yù)訓(xùn)練模型的出現(xiàn),當(dāng)代人工智能模型在諸多任務(wù)上得到了超越人類的表現(xiàn)。隨著預(yù)訓(xùn)練模型取得越來越好的結(jié)果,但是研究人員對(duì)于預(yù)訓(xùn)練模型卻并沒有知道更多。

另一方面,從語言處理的角度來看,認(rèn)知神經(jīng)科學(xué)研究人類大腦中語言處理的生物和認(rèn)知過程。研究人員專門設(shè)計(jì)了預(yù)訓(xùn)練的模型來捕捉大腦如何表示語言的意義。之前的工作主要是通過明確微調(diào)預(yù)訓(xùn)練的模型來預(yù)測(cè)語言誘導(dǎo)的大腦記錄,從而納入認(rèn)知信號(hào)。 然而,前人基于認(rèn)知的預(yù)訓(xùn)練模型的工作,其思路無法對(duì)認(rèn)知數(shù)據(jù)為何對(duì) NLP 有幫助進(jìn)行精細(xì)的分析和解釋。而這對(duì)于指導(dǎo)未來的認(rèn)知啟發(fā)式 NLP 研究,即應(yīng)該從認(rèn)知數(shù)據(jù)中誘導(dǎo)出什么樣的認(rèn)知特征,以及這些認(rèn)知特征如何對(duì) NLP 任務(wù)做出貢獻(xiàn),具有重要意義,否則這只是相當(dāng)于往預(yù)訓(xùn)練模型加入更多的數(shù)據(jù),而對(duì)認(rèn)知數(shù)據(jù)如何幫助預(yù)訓(xùn)練模型任然知之甚少。 例如,圖 1 顯示了以英語為母語的人的眼球追蹤數(shù)據(jù),其中圖 1(a) 說明了人類正常閱讀時(shí)的關(guān)注次數(shù)。圖 2(b) 和 (c) 分別顯示了在 NLP 任務(wù)中的情感分類(SC)和命名實(shí)體識(shí)別(NER)的關(guān)注次數(shù)。我們可以看到,對(duì)于同一個(gè)句子,在不同的 NLP 任務(wù)下,人類的注意力是不同的。特別是,對(duì)于情感分類任務(wù),人們更關(guān)注情感詞,如``terrible'和``chaos'。而對(duì)于 NER 任務(wù),人們傾向于關(guān)注命名的實(shí)體詞,如``ISIS'和``Syria'。但是先前的研究不能通過簡(jiǎn)單地在認(rèn)知數(shù)據(jù)上微調(diào)預(yù)先訓(xùn)練好的模型來給出這種細(xì)粒度的分析。 為了促進(jìn)這一點(diǎn),我們提出了 CogBERT,一個(gè)認(rèn)知指導(dǎo)的預(yù)訓(xùn)練模型。具體來說,我們專注于使用眼球追蹤數(shù)據(jù)的效果,該數(shù)據(jù)通過追蹤眼球運(yùn)動(dòng)和測(cè)量固定時(shí)間來提供母語者的凝視信息。我們沒有直接在認(rèn)知數(shù)據(jù)上對(duì) BERT 進(jìn)行微調(diào),而是首先根據(jù)認(rèn)知理論提取心理語言學(xué)特征。

然后,我們?cè)谘蹌?dòng)數(shù)據(jù)中過濾掉統(tǒng)計(jì)學(xué)上不重要的特征(這意味著具有這些特征的單詞的人類注意力并不明顯高于/低于單詞的平均注意力)。隨后,我們通過在不同的 NLP 任務(wù)上進(jìn)行微調(diào),將這些經(jīng)過認(rèn)知驗(yàn)證的特征納入 BERT。在微調(diào)過程中,我們將根據(jù)不同的 NLP 任務(wù),為每一類特征學(xué)習(xí)不同的權(quán)重。

方法

本文的方法主要基于一個(gè)二階段的過程,其中一個(gè)階段被用來產(chǎn)生基于認(rèn)知的特征模板,第二個(gè)階段在于將這些認(rèn)知啟發(fā)的特征模板通過特殊設(shè)定的架構(gòu)融入預(yù)訓(xùn)練模型當(dāng)中。3.1 方法心理語言學(xué)研究表明 [1],人類閱讀能力的獲得體現(xiàn)在兩個(gè)方面。底層線索 (ower strands) 和高層線索 (upper strands)。底層線索(包括語音學(xué)、形態(tài)學(xué)等)隨著閱讀者的重復(fù)和練習(xí)而變得準(zhǔn)確和自動(dòng)。同時(shí),高層線索(包括語言結(jié)構(gòu)、語義等)相互促進(jìn),并與底層線索交織在一起,形成一個(gè)熟練的讀者。即意味著,人類本質(zhì)上的語言習(xí)得能力,其中一個(gè)重要的關(guān)鍵是對(duì)文本中的一系列特征進(jìn)行越來越熟練的提取和識(shí)別。 這意味著,人類的眼球動(dòng)作行為一定程度上可以被語言特征所反應(yīng),受以往工作的啟發(fā),我們構(gòu)建了一個(gè)初始的認(rèn)知特征集,包括使用 spaCy 工具 [2] 從文本中提取的 46 個(gè)細(xì)粒度的認(rèn)知特征,并將其分為下層特征(詞級(jí))和上層特征(語義/語法級(jí))。我們對(duì)這 46 種語言特征進(jìn)行了廣泛的統(tǒng)計(jì)顯著性分析,找到了其中 14 個(gè)對(duì)于人類眼球動(dòng)作有顯著影響的特征,并根據(jù)特征特點(diǎn),將其分為了上層特征和下層特征,展示在下表 1 當(dāng)中。

aa77fa9a-5b30-11ed-a3b6-dac502259ad0.png

▲表1. 特征層級(jí)分類圖

3.2加權(quán)認(rèn)知特征向量學(xué)習(xí)

aa8a77ce-5b30-11ed-a3b6-dac502259ad0.png

▲圖2. 加權(quán)認(rèn)知特征向量學(xué)習(xí)模型

我們可以通過使用 spaCy 工具從文本中提取特征。然而,這些特征不應(yīng)該被賦予相同或隨機(jī)的權(quán)重,因?yàn)樗鼈儗?duì)適應(yīng)人類對(duì)句子的理解的貢獻(xiàn)是不同的。因此,如圖 2 所示,給定一個(gè)輸入句子,我們訓(xùn)練一個(gè)四層的 Bi-LSTM [3],將每個(gè)單詞嵌入到一個(gè)加權(quán)的八維認(rèn)知特征向量。根據(jù)前述的心里語言學(xué)理論,我們認(rèn)為認(rèn)知特征可以解釋人類眼動(dòng)信息的分配。因此,我們使用眼球追蹤數(shù)據(jù)(Zuco 1.0、Zuco 2.0 和 Geco)[4,5,6] 的眼球動(dòng)作信息中的關(guān)注次數(shù) (nFix) 作為監(jiān)督信號(hào)來訓(xùn)練 Bi-LSTM 模型。

這部分的目的在實(shí)踐上實(shí)現(xiàn)前述所提到的理論,即人類的閱讀行為可以被特征解釋,同樣的,在模型層面上即意味著,模型要學(xué)會(huì)去利用語言特征的組合去逼近人類的閱讀行為。但是在本模型中,所需要的本不是最后對(duì)于眼球動(dòng)作數(shù)據(jù)的逼近,而是需要其中通過眼球動(dòng)作數(shù)據(jù)學(xué)來的特征向量。3.3 特征向量融入預(yù)訓(xùn)練語言模型

aaa0d0d2-5b30-11ed-a3b6-dac502259ad0.png

▲圖3. 特征向量融入預(yù)訓(xùn)練語言模型

如圖 3(a) 所示,對(duì)于每個(gè)有單詞的輸入句子,我們可以從 Bi-LSTM 模型中獲得其對(duì)應(yīng)的特征矩陣。對(duì)于每個(gè)底層特征(即詞長(zhǎng)、詞位、NER 和內(nèi)容詞),我們可以從 Bi-LSTM 模型中為其生成一個(gè)初始特征向量,隨后這些特征向量將會(huì)被對(duì)角化放在一個(gè)矩陣的對(duì)角線上。

對(duì)于每個(gè)上層特征(即 NP chunk、情感詞、Mod&Aux 和 Obj&Comp),我們可以從 Bi-LSTM 模型中分別為其生成一個(gè)初始的特征矩陣。如果相鄰的詞組成了一個(gè)上層特征,它在特征矩陣中的值是由 Bi-LSTM 模型得到的相鄰詞的平均特征得分,而其余數(shù)值都填為 0。同時(shí)對(duì)于每一個(gè)特征,會(huì)有一個(gè)經(jīng)由高斯采樣出的權(quán)重每個(gè)特征進(jìn)行放縮,用來提來該特征在該條數(shù)據(jù)或者任務(wù)當(dāng)中的重要性。

經(jīng)由上述過程生成的特征矩陣經(jīng)過放縮后分別被卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行處理用于提取特征形成基于特征的注意力矩陣,同時(shí)為了保留原始的模型注意力信息和特征的注意力矩陣,本文添加了一個(gè)門控向量,該向量會(huì)分別與模型原本的注意力矩陣和特征注意力矩陣進(jìn)行相乘并求和,求得一個(gè)原注意力矩陣和當(dāng)前注意力矩陣的線性加權(quán)。

同時(shí)可以注意到,本模型當(dāng)中,底層特征將會(huì)融入在預(yù)訓(xùn)練模型的底層,而高層特征則會(huì)融入在預(yù)訓(xùn)練模型的高層。

實(shí)驗(yàn)及分析4.1數(shù)據(jù)集

本文在多個(gè)數(shù)據(jù)集上進(jìn)行了大量的實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果包括了 GLUE Benchmark [7], CoNLL2000 Chunking [8] 以及 Eye-tracking [9] 和模型本身的一些分析。

4.2基線方法

1. BERT 不進(jìn)行遷移,直接在目標(biāo)領(lǐng)域上進(jìn)行預(yù)測(cè)。RoBERTa 微調(diào)源領(lǐng)域模型的全部參數(shù)進(jìn)行領(lǐng)域適應(yīng);

2. fMRI-EEG-BERT 一種認(rèn)知數(shù)據(jù)增強(qiáng)的預(yù)訓(xùn)練語言模型,利用了核磁共振與腦電磁場(chǎng)數(shù)據(jù);

3. Eye-tracking BERT 一種認(rèn)知數(shù)據(jù)增強(qiáng)的預(yù)訓(xùn)練語言模型,利用了眼球動(dòng)作捕捉進(jìn)行微調(diào)后再在下游任務(wù)上微調(diào);

4. CogBERT (Random) 本論文所提出的模型,但是特征分?jǐn)?shù)并未經(jīng)由一階段進(jìn)行生成,而是隨機(jī)生成的。

4.3 實(shí)驗(yàn)結(jié)果與分析

如表 2 所示,本文所提出的模型能夠在所有任務(wù)上超越模型的原本基線,同時(shí)超越大多數(shù)的認(rèn)知增強(qiáng)的預(yù)訓(xùn)練語言模型,并能夠在大多數(shù)任務(wù)上達(dá)到或者超越經(jīng)由語法增強(qiáng)的預(yù)訓(xùn)練語言模型,體現(xiàn)了本文所提出模型的有效性。

aad02760-5b30-11ed-a3b6-dac502259ad0.png

▲表2. GLUE Benchmark實(shí)驗(yàn)結(jié)果

在 CoNLL 2000 Chunking 的數(shù)據(jù)集上,本文提出的模型可以超越 BERT 基線模型,同時(shí)本文提出的模型還可以超越先前專門用于序列標(biāo)注而設(shè)計(jì)的模型。體現(xiàn)了認(rèn)知增強(qiáng)的模型可以被用在廣泛的自然語言處理任務(wù)上。

aaf1d04a-5b30-11ed-a3b6-dac502259ad0.png

▲表3. CoNLL2000 Chunking實(shí)驗(yàn)結(jié)果 同時(shí),本文也在認(rèn)知相關(guān)任務(wù)上進(jìn)行了測(cè)試。在眼動(dòng)數(shù)據(jù)預(yù)測(cè)的任務(wù)當(dāng)中,本文所提出的模型可以在英語和荷蘭語的數(shù)據(jù)上超越相應(yīng)的基線模型。同時(shí)由于本文模型是基于 BERT 單語言版本,實(shí)驗(yàn)證明我們的模型也能夠超越 BERT 多語言版本,同時(shí)能夠超越 XLM-17 這一在 17 種語言上預(yù)訓(xùn)練的模型,最終能以僅單語言的模型版本達(dá)到可比或者超越 XLM-100 這一在 100 種語言上預(yù)訓(xùn)練的模型。證明了融入認(rèn)知數(shù)據(jù)對(duì)于認(rèn)知任務(wù)具有強(qiáng)力的增益。

ab0c1e3c-5b30-11ed-a3b6-dac502259ad0.png

▲表4. Eye-tracking Prediction實(shí)驗(yàn)結(jié)果

在對(duì)于模型本身的分析方面,首先展示在模型學(xué)習(xí)中不同任務(wù)里,不同特征所得到的權(quán)重。在 COLA(語法可接受性)上,本文的模型對(duì)語法相關(guān)特征給出了高權(quán)值。在 MRPC(轉(zhuǎn)述句識(shí)別)上,模型認(rèn)為命名實(shí)體是最為重要的特征,即可能如果兩個(gè)句子并不在描述同一個(gè)實(shí)體,那么兩個(gè)句子大概率不是轉(zhuǎn)述句。在 RTE(文本蘊(yùn)含)中,模型認(rèn)為名詞短語是最為重要的特征,這可能意味著如果兩個(gè)句子具有類似的名詞短語結(jié)構(gòu),那么兩個(gè)句子具有較大的概率是蘊(yùn)含關(guān)系。在 CoNLL 2000 Chunking 和 CoNLL 2003 NER 任務(wù)當(dāng)中,模型可以很直觀的給出名詞短語和實(shí)體詞為最重要特征,符合了任務(wù)的設(shè)計(jì)。

ab1e6204-5b30-11ed-a3b6-dac502259ad0.png

▲表5. 特征權(quán)重分析實(shí)驗(yàn)結(jié)果

我們觀察到,替換下層或上層的認(rèn)知特征會(huì)降低模型的性能,而去除所有層的認(rèn)知特征會(huì)進(jìn)一步影響模型的性能。我們還注意到,盡管可讀性對(duì)于我們的模型來說沒有認(rèn)知特征那么重要,但去除它也會(huì)損害模型的性能。不分層的融入特征意味著我們將所有的特征整合到 BERT 的每一層,不分層的糟糕表現(xiàn)表明,以分層的方式整合特征是認(rèn)知引導(dǎo)的 NLP 的一個(gè)有效方法。

ab2cb106-5b30-11ed-a3b6-dac502259ad0.png

▲表6. 消融實(shí)驗(yàn)結(jié)果

在本文中,由于下層特征融入到預(yù)訓(xùn)練模型的底層,而上層特征融入到高層當(dāng)中,因此有必要去尋找合適的分層邊界。本文量化地討論了 BERT 的哪一層應(yīng)該是下層和上層認(rèn)知特征的邊界,并對(duì) SST2、MRPC、QNLI 和 STS-B 任務(wù)的開發(fā)集進(jìn)行了比較實(shí)驗(yàn),并在圖中說明了結(jié)果。Y 軸是不同 NLP 任務(wù)的性能。X 軸是層數(shù)。例如,如果層數(shù)為 6,我們將下層的認(rèn)知特征納入 BERT 的 1-6 層,將上層的認(rèn)知特征納入其余層。

研究發(fā)現(xiàn),當(dāng)層數(shù)邊界在 4 左右時(shí),所有任務(wù)都達(dá)到了最佳性能,這意味著 BERT 的低層更適合納入下層認(rèn)知特征,而當(dāng)我們將上層認(rèn)知特征納入更高的層數(shù)時(shí),它們更有用。這些結(jié)果可以有效地指導(dǎo)未來認(rèn)知強(qiáng)化預(yù)訓(xùn)練模型的研究,同時(shí)也進(jìn)一步驗(yàn)證了前人關(guān)于預(yù)訓(xùn)練模型的相關(guān)研究 [10]。

ab3d73ec-5b30-11ed-a3b6-dac502259ad0.png

▲圖4. 任務(wù)表現(xiàn)與特征層數(shù)分析圖

為了定性地分析我們方法的有效性,我們將 CogBERT 的注意力可視化,并與 BERT 和人類進(jìn)行比較。我們從 SST2、NER 和 MRPC 任務(wù)中選擇案例。為了與人類的認(rèn)知進(jìn)行比較,給定一個(gè)特定的 NLP 任務(wù),我們要求四個(gè)注釋者在閱讀句子時(shí)突出他們的注意詞。對(duì)于 BERT 和 CogBERT,我們從預(yù)訓(xùn)練模型的較高層次中選擇注意力得分,這可以捕捉到任務(wù)的特定特征。SST2 和 NER 的注意力可視化圖。

圖 (a) 展示了 CoNLL-2003 NER 任務(wù)的注意力可視化,說明 CogBERT 像人類一樣對(duì) NER 詞 "Asian Cup"、"Japan"和 "Syria"給予了更多的關(guān)注,而 BERT 對(duì)這些詞的關(guān)注很少。圖 (b) 說明了 SST2 任務(wù)的注意力可視化,顯示 CogBERT 捕獲了關(guān)鍵的情感詞`fun'和`okay',而這兩個(gè)詞從人類的判別行為來說對(duì)人類的判斷也很重要。

相比之下,BERT 未能關(guān)注這些詞。這些實(shí)驗(yàn)結(jié)果表明,盡管預(yù)訓(xùn)練模型在眾多 NLP 任務(wù)中取得了可喜的改進(jìn),但它們離人類智能的水平還很遠(yuǎn)。通過學(xué)習(xí)人類閱讀中的注意力機(jī)制,認(rèn)知引導(dǎo)的預(yù)訓(xùn)練模型可以提供一種接近人類認(rèn)知的有效方法。

ab55b15a-5b30-11ed-a3b6-dac502259ad0.png

▲圖5. 注意力可視化

結(jié)論

我們提出了 CogBERT,一個(gè)能夠有效地將認(rèn)知信號(hào)納入預(yù)訓(xùn)練模型的框架。實(shí)驗(yàn)結(jié)果表明,CogBERT 在多個(gè) NLP 基準(zhǔn)數(shù)據(jù)集上取得了超越基線的結(jié)果,同時(shí)模型表明證明對(duì)認(rèn)知任務(wù)同樣有用。分析表明,CogBERT 可以自適應(yīng)地學(xué)習(xí)特定任務(wù)的認(rèn)知特征權(quán)重,從而對(duì)認(rèn)知數(shù)據(jù)在 NLP 任務(wù)中的工作方式做出精細(xì)的解釋。這項(xiàng)工作為學(xué)習(xí)認(rèn)知增強(qiáng)的預(yù)訓(xùn)練模型提供了一個(gè)新的方法,廣泛闡述的實(shí)驗(yàn)可以指導(dǎo)未來的研究。

審核編輯 :李倩 ·

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    487

    瀏覽量

    10201
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1197

    瀏覽量

    24538

原文標(biāo)題:COLING'22 | CogBERT:腦認(rèn)知指導(dǎo)的預(yù)訓(xùn)練語言模型

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    預(yù)訓(xùn)練和遷移學(xué)習(xí)的區(qū)別和聯(lián)系

    預(yù)訓(xùn)練和遷移學(xué)習(xí)是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)領(lǐng)域中的兩個(gè)重要概念,它們?cè)谔岣?b class='flag-5'>模型性能、減少訓(xùn)練時(shí)間和降低對(duì)數(shù)據(jù)量的需求方面發(fā)揮著關(guān)鍵作用。本文將從定義、原理、應(yīng)用、區(qū)別和聯(lián)系等方面詳細(xì)探討
    的頭像 發(fā)表于 07-11 10:12 ?357次閱讀

    語言模型預(yù)訓(xùn)練

    能力,逐漸成為NLP領(lǐng)域的研究熱點(diǎn)。大語言模型預(yù)訓(xùn)練是這一技術(shù)發(fā)展的關(guān)鍵步驟,它通過在海量無標(biāo)簽數(shù)據(jù)上進(jìn)行訓(xùn)練,使
    的頭像 發(fā)表于 07-11 10:11 ?249次閱讀

    LLM預(yù)訓(xùn)練的基本概念、基本原理和主要優(yōu)勢(shì)

    在人工智能和自然語言處理(NLP)領(lǐng)域,大型語言模型(Large Language Model,簡(jiǎn)稱LLM)的興起極大地推動(dòng)了技術(shù)的進(jìn)步和應(yīng)用的發(fā)展。LLM通過在大規(guī)模文本數(shù)據(jù)上進(jìn)行預(yù)
    的頭像 發(fā)表于 07-10 11:03 ?724次閱讀

    預(yù)訓(xùn)練模型的基本原理和應(yīng)用

    預(yù)訓(xùn)練模型(Pre-trained Model)是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)領(lǐng)域中的一個(gè)重要概念,尤其是在自然語言處理(NLP)和計(jì)算機(jī)視覺(CV)等領(lǐng)域中得到了廣泛應(yīng)用。
    的頭像 發(fā)表于 07-03 18:20 ?1433次閱讀

    語言模型:原理與工程時(shí)間+小白初識(shí)大語言模型

    語言模型進(jìn)行預(yù)訓(xùn)練,此處預(yù)訓(xùn)練為自然語言處理領(lǐng)域的
    發(fā)表于 05-12 23:57

    【大語言模型:原理與工程實(shí)踐】大語言模型的應(yīng)用

    。 關(guān)于大語言模型是否具備與人類“系統(tǒng)2”相似的能力,存在廣泛的爭(zhēng)議。然而,隨著模型參數(shù)量的增加和大規(guī)模預(yù)訓(xùn)練的實(shí)施,大
    發(fā)表于 05-07 17:21

    【大語言模型:原理與工程實(shí)踐】大語言模型預(yù)訓(xùn)練

    語言模型的核心特點(diǎn)在于其龐大的參數(shù)量,這賦予了模型強(qiáng)大的學(xué)習(xí)容量,使其無需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)習(xí)容量的增加,對(duì)預(yù)
    發(fā)表于 05-07 17:10

    【大語言模型:原理與工程實(shí)踐】大語言模型的基礎(chǔ)技術(shù)

    全面剖析大語言模型的核心技術(shù)與基礎(chǔ)知識(shí)。首先,概述自然語言的基本表示,這是理解大語言模型技術(shù)的前提。接著,詳細(xì)介紹自然
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實(shí)踐】核心技術(shù)綜述

    的復(fù)雜模式和長(zhǎng)距離依賴關(guān)系。 預(yù)訓(xùn)練策略: 預(yù)訓(xùn)練是LLMs訓(xùn)練過程的第一階段,模型在大量的
    發(fā)表于 05-05 10:56

    【大語言模型:原理與工程實(shí)踐】揭開大語言模型的面紗

    Transformer架構(gòu),利用自注意力機(jī)制對(duì)文本進(jìn)行編碼,通過預(yù)訓(xùn)練、有監(jiān)督微調(diào)和強(qiáng)化學(xué)習(xí)等階段,不斷提升性能,展現(xiàn)出強(qiáng)大的語言理解和生成能力。 大語言
    發(fā)表于 05-04 23:55

    【大語言模型:原理與工程實(shí)踐】探索《大語言模型原理與工程實(shí)踐》

    處理中預(yù)訓(xùn)練架構(gòu)Transformer,以及這些技術(shù)在現(xiàn)實(shí)世界中的如何應(yīng)用。通過具體案例的分析,作者展示了大語言模型在解決實(shí)際問題中的強(qiáng)大能力,同時(shí)也指出了當(dāng)前技術(shù)面臨的挑戰(zhàn)和局限性。
    發(fā)表于 04-30 15:35

    名單公布!【書籍評(píng)測(cè)活動(dòng)NO.30】大規(guī)模語言模型:從理論到實(shí)踐

    榜銷售TOP1的桂冠,可想大家對(duì)本書的認(rèn)可和支持! 這本書為什么如此受歡迎?它究竟講了什么?下面就給大家詳細(xì)~~ 本書主要內(nèi)容 本書圍繞大語言模型構(gòu)建的四個(gè)主要階段——預(yù)訓(xùn)練、有監(jiān)督
    發(fā)表于 03-11 15:16

    語言模型推斷中的批處理效應(yīng)

    隨著開源預(yù)訓(xùn)練大型語言模型(Large Language Model, LLM )變得更加強(qiáng)大和開放,越來越多的開發(fā)者將大語言
    的頭像 發(fā)表于 01-04 12:32 ?492次閱讀
    大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>推斷中的批處理效應(yīng)

    語言模型使用指南

    ,帶你發(fā)現(xiàn)大語言模型的潛力,解鎖無限可能。 揭秘大語言模型的魔法 在動(dòng)手操作之前,我們先來揭秘一下大語言
    的頭像 發(fā)表于 12-29 14:18 ?575次閱讀

    語言模型簡(jiǎn)介:基于大語言模型模型全家桶Amazon Bedrock

    本文基于亞馬遜云科技推出的大語言模型與生成式AI的全家桶:Bedrock對(duì)大語言模型進(jìn)行介紹。大語言模型
    的頭像 發(fā)表于 12-04 15:51 ?648次閱讀