0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

兩個(gè)NLP模型的預(yù)測(cè)分析

深度學(xué)習(xí)自然語言處理 ? 來源:圖與推薦 ? 作者:圖與推薦 ? 2021-04-04 17:11 ? 次閱讀

圖數(shù)據(jù)的天然優(yōu)勢(shì)是為學(xué)習(xí)算法提供了豐富的結(jié)構(gòu)化信息,節(jié)點(diǎn)之間鄰接關(guān)系的設(shè)計(jì)成為了重要的先驗(yàn)信息和交互約束。然而,有一部分邊上的消息是可以忽略的,論文首先提出方法在不影響模型預(yù)測(cè)效果的情況下,將圖結(jié)構(gòu)中冗余的邊drop掉。通過分析剩余邊上具有怎樣的先驗(yàn)知識(shí),實(shí)現(xiàn)對(duì)GNN的預(yù)測(cè)過程加以解釋。

0. Abstract

GNN 能夠?qū)⒔Y(jié)構(gòu)歸納偏置(structural inductive biases) 整合到 NLP 模型中。然而,卻鮮有工作對(duì)于這種結(jié)構(gòu)偏置的原理加以解釋,特別是在理解圖結(jié)構(gòu)的哪些部分有助于模型的預(yù)測(cè)方面。因此,本文介紹了一種事后(post-hoc)方法,來對(duì) GNN 的預(yù)測(cè)加以解釋,它能夠識(shí)別出不必要的邊。給定一個(gè)訓(xùn)練過的GNN模型,本文通過學(xué)習(xí)一個(gè)簡(jiǎn)單的分類器,對(duì)于每一層中的每條邊,預(yù)測(cè)那條邊是否可以被丟棄。作者證明了這樣的分類器的訓(xùn)練可以用完全可微分的方式,使用隨機(jī)門,并通過范數(shù)促進(jìn)稀疏性。此外,作者還進(jìn)行了非常有意義的實(shí)驗(yàn),將提出的技術(shù)作為歸因方法,同時(shí)分析了兩個(gè) NLP 任務(wù)中的GNN模型——問題回答和語義角色標(biāo)注,并提供了對(duì)這些模型中信息流的理解。實(shí)驗(yàn)結(jié)果表明,可以丟棄大量的邊卻不會(huì)影響到模型的性能,同時(shí)通過分析剩余的重要邊來解釋模型的預(yù)測(cè)過程。

1. Introduction

基于GNN的NLP任務(wù)

1.應(yīng)用現(xiàn)狀

近年來,圖神經(jīng)網(wǎng)絡(luò)(GNNs)成為了一種可擴(kuò)展和高性能的方法,能夠?qū)⒄Z言信息和其他結(jié)構(gòu)偏置整合到NLP模型中。GNN 能夠用于文本數(shù)據(jù)的表示,例如:語法和語義圖、共指結(jié)構(gòu)、知識(shí)庫(kù)與文本鏈接等。也能夠用在多種NLP任務(wù)中,例如:關(guān)系抽取,問題回答,語義語法解析,文本摘要,機(jī)器翻譯,社交網(wǎng)絡(luò)中的濫用語言檢測(cè)等。

2.應(yīng)用瓶頸——在NLP任務(wù)中的可解釋性

雖然 GNN 性能較好,但模型還是相對(duì)復(fù)雜的,很難理解模型預(yù)測(cè)背后的“原因”。對(duì)于NLP從業(yè)者來說,知道給定的模型編碼了哪些語言信息以及編碼是如何發(fā)生的是非常重要的,GNN 可解釋性差是實(shí)現(xiàn)這種分析的障礙。此外,這種不透明性降低了用戶的信任,阻礙了有害偏置的發(fā)現(xiàn),并使錯(cuò)誤分析復(fù)雜化;在這篇論文中,著重于對(duì) GNN 的事后分析,并對(duì)解釋GNN的方法制定了以下要求:

能夠識(shí)別層之間的相關(guān)路徑,因?yàn)槁窂绞窍蛴脩粽故?GNN 推理模式的最自然的方式之一;

易于處理,適用于現(xiàn)代基于 GNN 的 NLP 模型;

盡可能的提升可信度,為模型如何真正的達(dá)到預(yù)測(cè)效果提供解釋。

前置知識(shí):擦除搜索(erasure search)

1.定義

執(zhí)行解釋的一個(gè)簡(jiǎn)單方法是使用擦除搜索[1],這是一種歸因的方法,在不影響模型預(yù)測(cè)的情況下,查找到可以被完全刪除的最大特征子集。刪除意味著模型丟棄的所有特征信息都能夠被忽略。

2.擦除搜索應(yīng)用于GNN

對(duì)于GNN 而言,擦除搜索需要找到可以完全丟棄的最大子圖。對(duì)于上面提到的三點(diǎn)需求,擦除搜索只能滿足(1)和(3),在易處理性上失敗了。在實(shí)際場(chǎng)景中是不可行的,一次只刪除一個(gè)特征的花銷非常大,并且由于飽和性會(huì)低估特征的貢獻(xiàn);此外,在擦除搜索中,優(yōu)化是針對(duì)每個(gè)例子單獨(dú)進(jìn)行的。由于使用另一個(gè)可選擇的較小子圖也可以做出類似的預(yù)測(cè),即使是非冗余的邊也會(huì)被積極地修剪,這可能會(huì)導(dǎo)致過擬合,作者將這個(gè)問題稱為事后偏差(hindsight bias)。

GRAPHMASK 方法

論文提出的 GRAPHMASK 旨在通過可擴(kuò)展的方式實(shí)現(xiàn)與擦除搜索相同的優(yōu)點(diǎn),從而滿足上述的需求。也就是說,作者的方法對(duì)保留或丟棄邊做出了可解釋的硬性選擇,從而使被丟棄的邊與模型預(yù)測(cè)沒有相關(guān)性,同時(shí)保持了易處理性。GRAPHMASK 可以理解為子集擦除的一種可微的形式。其中,作者不是為每個(gè)給定的例子找到一個(gè)需要擦除的最佳子集,而是學(xué)習(xí)一個(gè)參數(shù)化的擦除函數(shù),該函數(shù)可以預(yù)測(cè)是否應(yīng)該保留第層的每條邊。給定一個(gè)示例圖 ,作者的方法為第 層返回一個(gè)子圖 ,這樣就可以認(rèn)為 之外的任何邊都不會(huì)影響模型的預(yù)測(cè)。由于作者的模型依賴于參數(shù)化的擦除函數(shù),而不是對(duì)每條邊單獨(dú)進(jìn)行選擇,作者可以通過在訓(xùn)練數(shù)據(jù)集上攤開參數(shù)學(xué)習(xí),這種策略避免了事后偏差。

論文的貢獻(xiàn)

作者提出了一種新的針對(duì)GNN可解釋性的方法,適用于任何以GNN為組件的端到端神經(jīng)模型(作者將發(fā)布代碼)。

作者用人工數(shù)據(jù)證明了現(xiàn)有最新方法的缺點(diǎn),并展示了論文的方法如何解決這些缺點(diǎn)并提高可信度。

作者使用GRAPHMASK來分析兩個(gè)NLP任務(wù)中的GNN模型:語義角色標(biāo)注和多跳問題回答。

2. Methods

GNN

給定輸入圖 ,GNN 第層的工作機(jī)制能夠通過一個(gè)消息函數(shù) 和一個(gè)聚合函數(shù) 定義:

其中, 表示節(jié)點(diǎn) 和 之間的關(guān)系類型, 是節(jié)點(diǎn) 的鄰居集合, 是第 層節(jié)點(diǎn)的表示。

GRAPHMASK

目標(biāo):獲得原始圖數(shù)據(jù)中的冗余信息,檢測(cè)在不影響模型預(yù)測(cè)的情況下,第 層的哪些邊上的消息 可以被忽略,作者將這些邊和邊上的消息視為冗余的。

整體思路(如下圖):節(jié)點(diǎn)的隱藏狀態(tài)和消息被喂入一個(gè)分類器 ,預(yù)測(cè)得到一個(gè)掩碼 ,作者用 來代替第 層的消息,并使用修改后的節(jié)點(diǎn)狀態(tài)重新計(jì)算前向傳播。分類器 在不改變模型預(yù)測(cè)的情況下,盡可能多的遮蔽隱藏狀態(tài)。

d4aa2812-88e9-11eb-8b86-12bb97331649.jpg

模型框架

Original Model當(dāng)節(jié)點(diǎn) 和 之間有邊連接時(shí),那么消息 能夠自由的傳遞給節(jié)點(diǎn) ;

Gated Model訓(xùn)練一個(gè)分類器 控制原始消息 是否要被遮蔽,若原始消息被遮蔽,則計(jì)算一個(gè)新的消息 ,再傳遞給節(jié)點(diǎn) 。

Gated Model 中消息的計(jì)算

作者通過一個(gè)二元選擇模型 查找需要丟棄的邊, 并通過一個(gè)可學(xué)習(xí)的基線 替換被丟棄的消息:

即,當(dāng) 時(shí),原始消息被遮蔽掉,使用學(xué)習(xí)到的參數(shù) 作為新的消息。

二元選擇模型的局限

不滿足作者在 Introduction 中提出的要求:1)該過程涉及到對(duì)所有可能被丟棄的候選邊進(jìn)行搜索,所以不是易處理的。2)搜索過程是對(duì)每一個(gè)例子單獨(dú)進(jìn)行的,存在事后偏見的危險(xiǎn)。

為了克服這些問題,作者通過一個(gè)簡(jiǎn)單的函數(shù)來計(jì)算 ,對(duì)每個(gè)任務(wù)跨數(shù)據(jù)點(diǎn)學(xué)習(xí)一次:

其中 是分類器 的參數(shù),以單層神經(jīng)網(wǎng)絡(luò)的形式實(shí)現(xiàn)。

分類器 的優(yōu)勢(shì)

不是根據(jù)給定的預(yù)測(cè)值來選擇門值 ,而是在多個(gè)數(shù)據(jù)點(diǎn)上訓(xùn)練參數(shù) ,并用于解釋在訓(xùn)練階段未見的例子上的預(yù)測(cè)。

的計(jì)算僅依靠模型在當(dāng)前階段的可用信息(即 , , ),而不是讓模型提供一個(gè)lookahead.

這兩個(gè)方面的設(shè)計(jì),防止了事后偏差。作者把這種策略稱為amortization。另一種選擇是為每個(gè)門獨(dú)立的選擇參數(shù),不在門間共享任何參數(shù),直接在測(cè)試樣本上執(zhí)行優(yōu)化,作者將這種策略稱為 GraphMask 的non-amortized版本。將在后面看到,與 amortization 版本不同的是,它容易受到事后偏見的影響。

計(jì)算過程

當(dāng)獲得訓(xùn)練好的分類器 后,使用論文提出的 GRAPHMASK 方法分析一個(gè)數(shù)據(jù)點(diǎn)過程如下:

1)在該數(shù)據(jù)點(diǎn)上執(zhí)行原始模型,得到 , , 。

2)對(duì)每一層的每一條邊進(jìn)行門計(jì)算,并執(zhí)行如圖1所示模型的稀疏化版本。根據(jù)公式3對(duì)原始模型的消息進(jìn)行門控。

3)對(duì)于后續(xù)各層,使用公式2對(duì)被遮蔽后的消息進(jìn)行聚合,以獲得頂點(diǎn)嵌入 ,然后用它來獲得下一組被掩蔽的消息。

GRAPHMASK 唯一學(xué)習(xí)的參數(shù)是擦除函數(shù)的參數(shù) 和學(xué)習(xí)到的基線向量 ,原 GNN 模型的參數(shù)保持不變。只要依靠稀疏化圖的預(yù)測(cè)與使用原始圖的預(yù)測(cè)相同,我們就可以將被掩蓋的信息解釋為冗余的信息。

模型參數(shù)估計(jì)

問題定義

給定:具有 層的 GNN 函數(shù) , 圖 , 輸入嵌入

任務(wù):找到一個(gè)信息量大的子圖集合 , ,也就是每一層GNN網(wǎng)絡(luò)對(duì)應(yīng)一個(gè)子圖,找到邊數(shù)目最少的子圖,并使得:.

約束優(yōu)化過程

用約束優(yōu)化的語言來形式化上述問題,并采用一種能夠?qū)崿F(xiàn)梯度下降的方法,如拉格朗日松弛。一般來說,不可能保證)和 相等,因?yàn)槭且粋€(gè)平穩(wěn)函數(shù),輸入數(shù)據(jù)的最小變化也無法產(chǎn)生完全相同的輸出。

為了衡量?jī)蓚€(gè)輸出的不一致程度,作者引入了一個(gè)散度:,和一個(gè)容忍度:, 在該范圍內(nèi)的差異是可接受的。 的選擇取決于原始模型的輸出結(jié)構(gòu)。最小化分類器 預(yù)測(cè)的非零值數(shù)目(即未被遮蔽的邊的總數(shù)),比較常見的方法是最小化 范數(shù)。因此,從形式上講,在數(shù)據(jù)集 上定義本文的目標(biāo)函數(shù)為:

其中1是指示函數(shù), 是拉格朗日乘子。

以上目標(biāo)函數(shù)不可微,由于:1) 不連續(xù),導(dǎo)數(shù)幾乎處處為0;2)輸出的二值需要一個(gè)不連續(xù)的激活,如階躍函數(shù)。因此沒辦法使用基于梯度的優(yōu)化方法,作者采用稀疏松弛解決以上問題,并采用 Hard Concrete 分布(封閉區(qū)間[0,1]上的混合離散連續(xù)分布)。

4. Experiments

作者進(jìn)行了三個(gè)系列的實(shí)驗(yàn),本文將呈現(xiàn)重要的表格和結(jié)果,具體實(shí)驗(yàn)細(xì)節(jié)和分析參閱論文。

綜合實(shí)驗(yàn)

作者首先將GRAPHMASK應(yīng)用在一個(gè)已知真實(shí)屬性的 Toy 數(shù)據(jù)集中,對(duì)方法的忠誠(chéng)度進(jìn)行評(píng)估。

任務(wù)描述給定一個(gè)星形圖 ,有一個(gè)單獨(dú)的中心頂點(diǎn),葉節(jié)點(diǎn),以及邊,圖中每條邊都事先分配好了一種顏色 。然后,給定一個(gè)查詢 ,

需要預(yù)測(cè)的是分配給顏色 的邊數(shù)是否大于分配給顏色 的邊數(shù)。我們事先明確已知與 兩種顏色相匹配的邊是重要的,除此之外的其它邊都不影響預(yù)測(cè)。作者定義了一個(gè)忠實(shí)度的黃金標(biāo)準(zhǔn):對(duì)于,所有 和 類型的邊都應(yīng)該被保留, 而所有其他的邊都應(yīng)該被丟棄。

GRAPHMASK與三個(gè)基線方法比較

d4e58b78-88e9-11eb-8b86-12bb97331649.jpg

只有本文提出的方法的 amortized 版本近似復(fù)制了黃金標(biāo)準(zhǔn),事實(shí)上,擦除搜索、GNNExplainer 和 non-amortized 的GRAPHMASK只召回了一小部分非冗余邊。

d52a348a-88e9-11eb-8b86-12bb97331649.jpg

圖2 可視化每種方法的分?jǐn)?shù)分配情況

擦除搜索、GNNExplainer 和 non-amortized 版本 GRAPHMASK 只保留一條黑色邊,造成過擬合。集成梯度和信息瓶頸方法給出了不滿意的結(jié)果,因?yàn)樗羞呥叾加袑傩?。只有amortized -GRAPHMASK能夠正確地將屬性分配給且僅分配給黑色和藍(lán)色邊,amortized 可以防止目標(biāo)過擬合。

問題回答任務(wù)

任務(wù)描述給定一個(gè)查詢句和一組上下文文檔,在上下文中找到最能回答查詢的實(shí)體。GNN圖中的節(jié)點(diǎn)對(duì)應(yīng)于查詢和上下文中實(shí)體的提及,并在這些實(shí)體之間引入了四種類型的邊:字符串匹配(MATCH)、文檔級(jí)共現(xiàn)(DOC-BASED)、核心參考解析(COREF),沒有任何其他邊(COMPLEMENT)。

d576780e-88e9-11eb-8b86-12bb97331649.jpg

GRAPHMASK復(fù)制了原始模型的性能,雖然準(zhǔn)確度下降0.4%,但是僅有27%的邊被保留,保留的邊大部分存在于底層(底層的邊比較重要)。作者測(cè)量了每一層保留邊的百分比,這些邊發(fā)生在源于查詢實(shí)體的路徑上。觀察發(fā)現(xiàn),發(fā)生在源于查詢的提及的路徑上的邊的比例按層急劇增加,從0層的11.8%,到1層的42.7%,在頂層達(dá)到73.8%。與預(yù)測(cè)答案相對(duì)應(yīng)的一些提及在99.7%的情況下是一些保留邊的目標(biāo)。然而,預(yù)測(cè)實(shí)體與查詢連接的幾率(72.1%)與平均候選實(shí)體的幾率(69.2%)幾乎相同。因此,GNN不僅負(fù)責(zé)通過圖傳播證據(jù)到預(yù)測(cè)答案,還負(fù)責(zé)傳播證據(jù)到備選候選實(shí)體。大多數(shù)路徑采取兩種形式之一,即一條COMPLEMENT邊之后是一條MATCH或一條DOC-BASED邊(22%),或者一條COMPLEMENT邊之后是兩條MATCH或DOC-BASED邊(52%)。

d5b470b4-88e9-11eb-8b86-12bb97331649.jpg

圖3 QA任務(wù)中邊的保留情況

查詢 "record label Phi" 的保留子圖(占原始邊的21%)。黑色邊類型是DOC-BASED,藍(lán)色是COMPLEMENT,黃色是MATCH,其中邊上的數(shù)字表示在哪一層保留了這種邊??梢钥吹?Japan 和 Johnny & Associates 之間第2層中的 DOC-BASED 類型邊的情況。事實(shí)上,在第0層、第1層和第2層中,分別有49%、98%和79%的保留邊也保留了它們的逆向邊。換句話說,提及之間 "不定向 "的信息交換,使得它的表征更加豐富。

語義角色標(biāo)注任務(wù)

d5f0a106-88e9-11eb-8b86-12bb97331649.jpg

圖4 GNN+LSTM模型的語義角色標(biāo)注的實(shí)例分析(丟棄冗余弧)

任務(wù)描述基于GNN的語義角色標(biāo)注系統(tǒng),識(shí)別給定謂詞的論元,并將它們分配到語義角色上,見圖4中句子下面的標(biāo)簽。該 GNN 模型依賴于自動(dòng)預(yù)測(cè)的句法依賴樹,允許信息雙向流動(dòng)。作者針對(duì)[2]中性能最好的模型,包括BiLSTM+GNN,以及GNN-only 模型。對(duì)于LSTM+GNN,遮蔽模型的性能變化非常小,F(xiàn)1 僅下降0.62%,卻只保留了其中4%的消息。GNN-only 模型的性能變化同樣很小,F(xiàn)1 下降了 0.79%,保留了16%的消息。

d62c48be-88e9-11eb-8b86-12bb97331649.jpg

LSTM+GNN 模型(左)和 GNN-only 模型(右)的預(yù)測(cè)中使用的路徑百分比(縱坐標(biāo)),橫坐標(biāo)是謂詞和預(yù)測(cè)角色之間距離。

[2] 的原始研究結(jié)果表明,GNN對(duì)于預(yù)測(cè)遠(yuǎn)離謂詞的角色特別有用,LSTM對(duì)于傳播信息的可靠性較低。GNN可以實(shí)現(xiàn)這一目標(biāo)的方式是使用圖中的路徑;要么依賴整個(gè)路徑,要么部分依賴路徑中的最后幾條邊。其中連接謂詞和論元的路徑代表語義角色標(biāo)注任務(wù)的重要特征。為了研究這個(gè)問題,作者在圖5中繪制了從謂詞到預(yù)測(cè)論元的路徑的百分比,從而保留了以預(yù)測(cè)論元為終點(diǎn)的子路徑(即至少一條邊),通過觀察圖5發(fā)現(xiàn):

LSTM+GNN 模型:隨著與謂詞距離的增加,對(duì)路徑的依賴性會(huì)降低。

GNN-only 模型:隨著與謂詞距離的增加,對(duì)路徑的依賴性會(huì)增加。

d6794970-88e9-11eb-8b86-12bb97331649.jpg

表3 兩種模型保留0、1或2條邊的路徑百分比,按路徑長(zhǎng)度和謂詞類型劃分

通過觀察表3發(fā)現(xiàn):

幾乎所有的謂詞和角色之間的直接連接都被保留了下來,因?yàn)檫@些邊構(gòu)成了它們句法關(guān)系的最直接的指示。

較長(zhǎng)的路徑在兩種模型中都是非常有用的--然而,在LSTM+GNN模型中,名詞謂詞對(duì)長(zhǎng)路徑的使用率要低得多。

在這種特殊情況下,LSTM捕捉到了路徑上存在的信息,在其他情況下,GNN通過對(duì)連接謂詞和論元的路徑進(jìn)行建模來補(bǔ)充LSTM。

5. Conclusion

論文介紹了GRAPHMASK,這是一種適用于任何GNN模型的事后解釋方法。通過學(xué)習(xí)每條消息的端到端可微分的hard gates,并在訓(xùn)練數(shù)據(jù)上進(jìn)行攤銷,GRAPHMASK 可擴(kuò)展到其它的GNN模型,并且能夠識(shí)別邊和路徑如何影響預(yù)測(cè)。作者應(yīng)用提出的方法分析了兩個(gè)NLP模型的預(yù)測(cè)——語義角色標(biāo)簽?zāi)P秃蛦栴}回答模型。GRAPHMASK發(fā)現(xiàn)了這些模型依賴于哪些類型的邊,以及它們?cè)谶M(jìn)行預(yù)測(cè)時(shí)如何運(yùn)用路徑。

原文標(biāo)題:【GNN】別用Attention了,用GNN來解釋NLP模型吧

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1787

    文章

    46061

    瀏覽量

    235030
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    481

    瀏覽量

    21935
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    觸發(fā)器的兩個(gè)穩(wěn)定狀態(tài)分別是什么

    觸發(fā)器作為數(shù)字電路中的基本邏輯單元,具有兩個(gè)穩(wěn)定狀態(tài),這兩個(gè)狀態(tài)通常用于表示二進(jìn)制數(shù)碼中的0和1。
    的頭像 發(fā)表于 08-12 11:01 ?210次閱讀

    matlab預(yù)測(cè)模型有哪些

    環(huán)境,使其成為預(yù)測(cè)模型開發(fā)和實(shí)現(xiàn)的理想平臺(tái)。本文將詳細(xì)介紹MATLAB中常用的預(yù)測(cè)模型及其應(yīng)用。 線性回歸模型 線性回歸是一種簡(jiǎn)單的
    的頭像 發(fā)表于 07-11 14:27 ?468次閱讀

    nlp邏輯層次模型的特點(diǎn)

    NLP(自然語言處理)邏輯層次模型是一種用于理解和生成自然語言文本的計(jì)算模型。它將自然語言文本分解為不同的層次,以便于計(jì)算機(jī)更好地處理和理解。以下是對(duì)NLP邏輯層次
    的頭像 發(fā)表于 07-09 10:39 ?190次閱讀

    nlp自然語言處理基本概念及關(guān)鍵技術(shù)

    自然語言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語言。NLP技術(shù)在機(jī)器翻譯、情感分析
    的頭像 發(fā)表于 07-09 10:32 ?265次閱讀

    arimagarch模型怎么預(yù)測(cè)

    GARCH模型則用于捕捉時(shí)間序列的波動(dòng)性。 以下是使用ARIMA-GARCH模型進(jìn)行預(yù)測(cè)的一般步驟: 數(shù)據(jù)準(zhǔn)備:首先需要收集和整理預(yù)測(cè)所需的時(shí)間序列數(shù)據(jù)。數(shù)據(jù)應(yīng)該是連續(xù)的,沒有缺失值。
    的頭像 發(fā)表于 07-09 10:22 ?245次閱讀

    nlp自然語言處理模型怎么做

    自然語言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它涉及到計(jì)算機(jī)對(duì)人類語言的理解和生成。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,NLP領(lǐng)域取得了顯著
    的頭像 發(fā)表于 07-05 09:59 ?353次閱讀

    nlp自然語言處理模型有哪些

    自然語言處理(Natural Language Processing,NLP)是計(jì)算機(jī)科學(xué)和人工智能領(lǐng)域的一個(gè)重要分支,旨在使計(jì)算機(jī)能夠理解、解釋和生成人類語言。以下是對(duì)NLP領(lǐng)域一些模型
    的頭像 發(fā)表于 07-05 09:57 ?416次閱讀

    NLP模型中RNN與CNN的選擇

    在自然語言處理(NLP)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)與卷積神經(jīng)網(wǎng)絡(luò)(CNN)是種極為重要且廣泛應(yīng)用的網(wǎng)絡(luò)結(jié)構(gòu)。它們各自具有獨(dú)特的優(yōu)勢(shì),適用于處理不同類型的NLP任務(wù)。本文旨在深入探討RNN與CNN
    的頭像 發(fā)表于 07-03 15:59 ?209次閱讀

    兩個(gè)銅片可以形成原電池嗎

    兩個(gè)銅片本身不能形成原電池,因?yàn)樵姵氐墓ぷ髟硪蕾囉?b class='flag-5'>兩個(gè)不同電位的電極材料之間的氧化還原反應(yīng)。
    的頭像 發(fā)表于 05-21 16:23 ?527次閱讀

    arcgis中如何關(guān)聯(lián)兩個(gè)屬性表

    在ArcGIS中,關(guān)聯(lián)兩個(gè)屬性表是一個(gè)重要的操作,可以通過此操作將兩個(gè)表中的數(shù)據(jù)關(guān)聯(lián)起來,以便進(jìn)行分析和查詢。下面是詳細(xì)介紹如何在ArcGIS中實(shí)現(xiàn)屬性表的關(guān)聯(lián)。 首先,我們需要明確
    的頭像 發(fā)表于 02-25 11:01 ?3197次閱讀

    兩個(gè)電位器地控制一個(gè)變頻器,如何接線?

    兩個(gè)電位器地控制一個(gè)變頻器,如何接線? 接線方式如下: 1. 首先,明確需要使用的電器設(shè)備。在這個(gè)場(chǎng)景中,我們需要兩個(gè)電位器(即可變電阻器)和一個(gè)
    的頭像 發(fā)表于 02-05 10:13 ?3874次閱讀

    如何給C語言中的函數(shù)定義兩個(gè)不同的名字?

    最近有位哥問我,如何給C語言中的函數(shù)定義兩個(gè)不同的名字?就是這兩個(gè)名字都是指向同一個(gè)函數(shù),同一個(gè)地址,而且兩個(gè)名字都可以當(dāng)做函數(shù)來用的那種。
    的頭像 發(fā)表于 12-19 16:21 ?563次閱讀

    LabVIEW進(jìn)行癌癥預(yù)測(cè)模型研究

    ,然后將得到的特征向量輸入到SVM中進(jìn)行分類。 LabVIEW是一種視覺編程語言,與傳統(tǒng)的文本編程語言不同,更適合于進(jìn)行復(fù)雜數(shù)據(jù)分析預(yù)測(cè)模型的開發(fā)。 LabVIEW使用數(shù)據(jù)流模型,可
    發(fā)表于 12-13 19:04

    電子設(shè)計(jì)中的兩個(gè)不同概念:pcb與pcb封裝

    電子設(shè)計(jì)中的兩個(gè)不同概念:pcb與pcb封裝
    的頭像 發(fā)表于 12-11 15:49 ?605次閱讀

    兩個(gè)硬盤2個(gè)系統(tǒng)開機(jī)切換

    切換兩個(gè)硬盤上的系統(tǒng)是一種常見的行為,可以讓用戶在不同的操作系統(tǒng)之間進(jìn)行切換,以滿足不同的需求。在本文中,我們將詳細(xì)介紹如何配置和使用兩個(gè)硬盤上的系統(tǒng)進(jìn)行切換。本文將分為以下幾個(gè)部分進(jìn)行討論:硬件
    的頭像 發(fā)表于 11-28 15:08 ?6021次閱讀