0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

簡(jiǎn)述基于神經(jīng)網(wǎng)絡(luò)的抽取式摘要方法

電子工程師 ? 來源:lp ? 2019-04-01 10:23 ? 次閱讀

1. 簡(jiǎn)介

隨著互聯(lián)網(wǎng)產(chǎn)生的文本數(shù)據(jù)越來越多,文本信息過載問題日益嚴(yán)重,對(duì)各類文本進(jìn)行一個(gè)“降 維”處理顯得非常必要,文本摘要便是其中一個(gè)重要的手段。文本摘要旨在將文本或文本集合轉(zhuǎn)換為包含關(guān)鍵信息的簡(jiǎn)短摘要。文本摘要按照輸入類型可分為單文檔摘要和多文檔摘要。單文檔摘要從給定的一個(gè)文檔中生成摘要,多文檔摘要從給定的一組主題相關(guān)的文檔中生成摘要。按照輸出類型可分為抽取式摘要和生成式摘要。抽取式摘要從源文檔中抽取關(guān)鍵句和關(guān)鍵詞組成摘要,摘要全部來源于原文。生成式摘要根據(jù)原文,允許生成新的詞語(yǔ)、短語(yǔ)來組成摘要。按照有無監(jiān)督數(shù)據(jù)可以分為有監(jiān)督摘要和無監(jiān)督摘要。本文主要關(guān)注單文檔、有監(jiān)督、抽取式、生成式摘要。

2. 抽取式摘要

抽取式方法從原文中選取關(guān)鍵詞、關(guān)鍵句組成摘要。這種方法天然的在語(yǔ)法、句法上錯(cuò)誤率低,保證了一定的效果。傳統(tǒng)的抽取式摘要方法使用圖方法、聚類等方式完成無監(jiān)督摘要。目前流行的基于神經(jīng)網(wǎng)絡(luò)的抽取式摘要往往將問題建模為序列標(biāo)注和句子排序兩類任務(wù)。下面首先介紹傳統(tǒng)的抽取式摘要方法,接著簡(jiǎn)述基于神經(jīng)網(wǎng)絡(luò)的抽取式摘要方法。

2.1 傳統(tǒng)方法

2.1.1 Lead-3

一般來說,作者常常會(huì)在標(biāo)題和文章開始就表明主題,因此最簡(jiǎn)單的方法就是抽取文章中的前幾句作為摘要。常用的方法為 Lead-3,即抽取文章的前三句作為文章的摘要。Lead-3 方法雖然簡(jiǎn)單直接,但卻是非常有效的方法。

2.1.2 TextRank

TextRank 算法仿照 PageRank,將句子作為節(jié)點(diǎn),使用句子間相似度,構(gòu)造無向有權(quán)邊。使用邊上的權(quán)值迭代更新節(jié)點(diǎn)值,最后選取 N 個(gè)得分最高的節(jié)點(diǎn),作為摘要。

2.1.3 聚類

將文章中的句子視為一個(gè)點(diǎn),按照聚類的方式完成摘要。例如 Padmakumar and Saran [11] 將文章中的句子使用 Skip thought vectors 和 Paragram embeddings 兩種方式進(jìn)行編碼,得到句子級(jí)別的向量表示,再使用 K 均值聚類和 Mean-Shift 聚類進(jìn)行句子聚類,得到 N 個(gè)類別。最后從每個(gè)類別中,選擇距離質(zhì)心最近的句子,得到 N 個(gè)句子,作為最終摘要。

2.2 序列標(biāo)注方式

抽取式摘要可以建模為序列標(biāo)注任務(wù)進(jìn)行處理,其核心想法是:為原文中的每一個(gè)句子打一個(gè)二分類標(biāo)簽(0 或 1),0 代表該句不屬于摘要,1 代表該句屬于摘要。最終摘要由所有標(biāo)簽為 1 的句子構(gòu)成。

2.2.1 序列標(biāo)注摘要基本框架

將文本摘要建模為序列標(biāo)注任務(wù)的關(guān)鍵在于獲得句子的表示,即將句子編碼為一個(gè)向量,根據(jù)該向量進(jìn)行二分類任務(wù),例如 AAAI17 中,Nallapati 等人[10]的工作,使用雙向 GRU 分別建模詞語(yǔ)級(jí)別和句子級(jí)別的表示。其模型 SummaRuNNer 如圖 1所示。藍(lán)色部分為詞語(yǔ)級(jí)別表示,紅色部分為句子級(jí)別表示,對(duì)于每一個(gè)句子表示,有一個(gè) 0、1 標(biāo)簽輸出,指示其是否是摘要。

圖1 SummaRuNNer 模型

該模型的訓(xùn)練需要監(jiān)督數(shù)據(jù),現(xiàn)有數(shù)據(jù)集往往沒有對(duì)應(yīng)的句子級(jí)別的標(biāo)簽,因此需要通過啟發(fā)式規(guī)則進(jìn)行獲取。具體方法為:首先選取原文中與標(biāo)準(zhǔn)摘要計(jì)算 ROUGE 得分最高的一句話加入候選集合,接著繼續(xù)從原文中進(jìn)行選擇,保證選出的摘要集合 ROUGE 得分增加,直至無法滿足該條件。得到的候選摘要集合對(duì)應(yīng)的句子設(shè)為 1 標(biāo)簽,其余為 0 標(biāo)簽。

2.2.2 序列標(biāo)注結(jié)合Seq2Seq

抽取式摘要還可以在序列標(biāo)注的基礎(chǔ)上結(jié)合 Seq2Seq 和強(qiáng)化學(xué)習(xí)完成。ACL18 中,Zhang等人[14]在序列標(biāo)注的基礎(chǔ)上,使用 Seq2Seq 學(xué)習(xí)一個(gè)句子壓縮模型,使用該模型來衡量選擇句子的好壞,并結(jié)合強(qiáng)化學(xué)習(xí)完成模型訓(xùn)練。其模型 Latent 如圖 2所示。

該方法的核心關(guān)注點(diǎn)是:摘要數(shù)據(jù)集往往沒有對(duì)應(yīng)的句子級(jí)別的標(biāo)簽,需要通過啟發(fā)式規(guī)則獲取,然而僅僅利用這些標(biāo)簽訓(xùn)練模型會(huì)丟失很多標(biāo)準(zhǔn)摘要中重要的信息。因此 Latent 模型不采用序列標(biāo)注方法計(jì)算標(biāo)簽級(jí)別的損失來訓(xùn)練模型,而是將序列標(biāo)注作為中間的步驟。在得到序列標(biāo)注的概率分布之后,從中采樣候選摘要集合,與標(biāo)準(zhǔn)摘要對(duì)比計(jì)算損失,可以更好地利用標(biāo)準(zhǔn)摘要中的信息。

圖2Latent 模型

2.3 Seq2Seq方式

之前的抽取式摘要往往建模句子級(jí)別的表示,忽略了關(guān)鍵詞的作用。ACL18 中,Jadhav and Rajan等人[5]直接使用 Seq2Seq 模型來交替生成詞語(yǔ)和句子的索引序列來完成抽取式摘要任務(wù)。其模型 SWAP-NET 在解碼的每一步,計(jì)算一個(gè) Switch 概率指示生成詞語(yǔ)或者句子。最后解碼出的是詞語(yǔ)和句子的混合序列。最終摘要由產(chǎn)生的句子集合選出。除了考慮生成句子本身的概率之外,還需要考慮該句是否包含了生成的詞語(yǔ),如果包含,則得分高,最終選擇 top k 句作為摘要。

2.4 句子排序方式

抽取式摘要還可以建模為句子排序任務(wù)完成,與序列標(biāo)注任務(wù)的不同點(diǎn)在于,序列標(biāo)注對(duì)于每一個(gè)句子表示打一個(gè) 0、1 標(biāo)簽,而句子排序任務(wù)則是針對(duì)每個(gè)句子輸出其是否是摘要句的概率,最終依據(jù)概率,選取 top k 個(gè)句子作為最終摘要。雖然任務(wù)建模方式(最終選取摘要方式)不同,但是其核心關(guān)注點(diǎn)都是對(duì)于句子表示的建模。

2.4.1 句子排序結(jié)合新的打分方式

之前的模型都是在得到句子的表示以后對(duì)于句子進(jìn)行打分,這就造成了打分與選擇是分離的,先打分,后根據(jù)得分進(jìn)行選擇。沒有利用到句子之間的關(guān)系。在 ACL18 中,Zhou 等人[15]提出了一種新的打分方式,使用句子受益作為打分方式,考慮到了句子之間的相互關(guān)系。其模型 NeuSUM 如圖 3所示。

句子編碼部分與之前基本相同。打分和抽取部分使用單向 GRU 和雙層 MLP 完成。單向 GRU 用于記錄過去抽取句子的情況,雙層 MLP 用于打分。打分如下公式所示。

其中 r 代表 ROUGE 評(píng)價(jià)指標(biāo),

圖3 NeuSUM 模型

因此在打分和選擇部分,逐步選擇使得 g 最高的句子,直到無法滿足該條件或者達(dá)到停止條件為止。集合 S 為最終摘要。

3. 生成式摘要

抽取式摘要在語(yǔ)法、句法上有一定的保證,但是也面臨了一定的問題,例如:內(nèi)容選擇錯(cuò)誤、連貫性差、靈活性差等問題。生成式摘要允許摘要中包含新的詞語(yǔ)或短語(yǔ),靈活性高,隨著近幾年神經(jīng)網(wǎng)絡(luò)模型的發(fā)展,序列到序列(Seq2Seq)模型被廣泛的用于生成式摘要任務(wù),并取得一定的成果。

僅使用 Seq2Seq 來完成生成式摘要存在如下問題:(1)未登錄詞問題(OOV),(2)生成重復(fù)。現(xiàn)在被廣泛應(yīng)用于生成式摘要的框架由 See 等人[13]在 ACL17 中提出,在基于注意力機(jī)制的 Seq2Seq 基礎(chǔ)上增加了 Copy 和 Coverage 機(jī)制,有效的緩解了上述問題。其模型 pointer-generator 網(wǎng)絡(luò)如圖 4所示。

圖4 Pointer-Generator 模型

其模型基本部分為基于注意力機(jī)制的 Seq2Seq 模型,使用每一步解碼的隱層狀態(tài)與編碼器的隱層狀態(tài)計(jì)算權(quán)重,最終得到 context 向量,利用 context 向量和解碼器隱層狀態(tài)計(jì)算輸出概率。

利用 Copy 機(jī)制,需要在解碼的每一步計(jì)算拷貝或生成的概率,因?yàn)樵~表是固定的,該機(jī)制可以選擇從原文中拷貝詞語(yǔ)到摘要中,有效的緩解了未登錄詞(OOV)的問題。

利用 Coverage 機(jī)制,需要在解碼的每一步考慮之前步的 attention 權(quán)重,結(jié)合 coverage 損失, 避免繼續(xù)考慮已經(jīng)獲得高權(quán)重的部分。該機(jī)制可以有效緩解生成重復(fù)的問題。

基于該框架可以做出一些改進(jìn),在 ICLR18 中,Paulus 等人[12],在該框架的基礎(chǔ)上又使用解碼器注意力機(jī)制結(jié)合強(qiáng)化學(xué)習(xí)來完成生成式摘要。

基于上述 Coverage 機(jī)制,在 EMNLP18 中,Li 等人[8]基于句子級(jí)別的注意力機(jī)制,使用句子級(jí)別的 Coverage 來使得不同的摘要句可以關(guān)注不同的原文,緩解了生成信息重復(fù)的問題。

3.1 利用外部信息

除上述問題以外,基于 Seq2Seq 的模型往往對(duì)長(zhǎng)文本生成不友好,對(duì)于摘要來說,更像是一種句子壓縮,而不是一種摘要。因此在 ACL18 中,Cao 等人[1],使用真實(shí)摘要來指導(dǎo)文本摘要的生成。其核心想法在于:相似句子的摘要也具有一定相似度,將這些摘要作為軟模板,作為外部知識(shí)進(jìn)行輔助。其模型Sum 一共包含 Retrieve、Rerank、Rewrite 三個(gè)部分。

Retrieve 部分主要檢索相似句子,獲得候選摘要。Rerank 部分用于排序候選模板,在訓(xùn)練集中,計(jì)算候選與真實(shí)摘要的 ROUGE 得分作為排序依據(jù),在開發(fā)集與測(cè)試集中,使用神經(jīng)網(wǎng)絡(luò)計(jì)算得分作為排序依據(jù)。訓(xùn)練過程中,使得預(yù)測(cè)得分盡可能與真實(shí)得分一致。Rewrite 部分,結(jié)合候選模板與原文生成摘要。

3.2 多任務(wù)學(xué)習(xí)

除了將本身數(shù)據(jù)集的信息作為一種外部知識(shí)以外,在 ACL18 中,Guo 等人[3]將摘要生成作為主任務(wù),問題生成、蘊(yùn)含生成作為輔助任務(wù)進(jìn)行多任務(wù)學(xué)習(xí)。問題生成任務(wù)需要根據(jù)給定的文本和答案生成問題,要求模型具有選擇重要信息的能力,蘊(yùn)含生成任務(wù)要求根據(jù)給定文本,有邏輯地推出輸出文本,要求模型具有邏輯推理能力。在文本摘要中,定位原文中的關(guān)鍵信息是核心問題,根據(jù)原文生成摘要又要求模型具有一定的邏輯推理能力,使得生成的摘要與原文不違背,無矛盾。

3.3 生成對(duì)抗方式

在 AAAI18 中,Liu 等人[9]利用 SeqGAN[14] 的思想,利用生成模型 G 來生成摘要,利用判別模型 D 來區(qū)分真實(shí)摘要與生成摘要。使用強(qiáng)化學(xué)習(xí)的方法,更新參數(shù)

4. 抽取生成式摘要

抽取式、生成式摘要各有優(yōu)點(diǎn),為了結(jié)合兩者的優(yōu)點(diǎn),一些方法也同時(shí)使用抽取結(jié)合生成的方法來完成摘要任務(wù)。

在生成式摘要中,生成過程往往缺少關(guān)鍵信息的控制和指導(dǎo),例如 pointer-generator 網(wǎng)絡(luò)在 copy 的過程中,無法很好地定位關(guān)鍵詞語(yǔ),因此一些方法首先提取關(guān)鍵內(nèi)容,再進(jìn)行摘要生成。

從直覺上來講,摘要任務(wù)可以大致分為兩步,首先選擇重要內(nèi)容,其次進(jìn)行內(nèi)容改寫。在 EMNLP18 中,Gehrmann 等人[2]基于這種想法,提出了“Bottom Up”方式的摘要, 首先使用“content selector”選擇關(guān)鍵信息,其次使用 pointer-generator 網(wǎng)絡(luò)生成摘要。

內(nèi)容選擇部分建模為詞語(yǔ)級(jí)別序列標(biāo)注任務(wù),該部分的訓(xùn)練數(shù)據(jù)通過將摘要對(duì)齊到文檔,得到詞語(yǔ)級(jí)別的標(biāo)簽。摘要生成部分使用 pointer-generator 網(wǎng)絡(luò),使用內(nèi)容選擇部分計(jì)算的概率修改原本 attention 概率,使得解碼器僅關(guān)注選擇的內(nèi)容。

除了上述以序列標(biāo)注方式來選擇關(guān)鍵詞的方法以外,在 NAACL18 中,Li 等人[6]使用 TextRank 算法獲得關(guān)鍵詞,之后使用神經(jīng)網(wǎng)絡(luò)獲得關(guān)鍵詞語(yǔ)的表示,并將該表示結(jié)合 pointergenerator 網(wǎng)絡(luò)生成摘要。

上述方法從原文中選擇重要的部分用來指導(dǎo)摘要的生成,顯式地利用了文本級(jí)別的信息,在 EMNLP18 中,Li 等人[7],使用門控機(jī)制,從編碼得到的向量表示中選擇有用的信息用于之后的摘要生成,屬于一種 Soft 方式。在使用層次化 encoder 得到句子級(jí)別的向量表示之后,使用門控機(jī)制,得到新的句子級(jí)別向量,表示從中選擇有用信息。其模型 InfoSelection 如圖 5所示。

圖 5 InfoSelection 模型

在 ACL18 中,Hsu 等人[4]將抽取式模型的輸出概率作為句子級(jí)別的 attention 權(quán)重, 用該權(quán)重來調(diào)整生成式模型中的詞語(yǔ)級(jí)別的 attention 權(quán)重,如圖 6所示,其核心想法為:當(dāng)詞語(yǔ)級(jí)別的 attention 權(quán)重高時(shí),句子級(jí)別的 attention 權(quán)重也高?;诖讼敕ㄌ岢隽?Inconsistency 損失函數(shù),使得模型輸出的句子級(jí)別的權(quán)重和詞語(yǔ)級(jí)別的權(quán)重盡量一致。在最終訓(xùn)練時(shí),首先分別預(yù)訓(xùn)練抽取式和生成式模型,之后有兩種方式來結(jié)合兩個(gè)模型,Hard 方式:將抽取式模型抽出的關(guān)鍵句直接作為生成式模型的輸入;Soft 方式:將抽取式模型的的輸出概率用來調(diào)整詞語(yǔ)級(jí)別的權(quán)重。

圖6 權(quán)重調(diào)整過程

5. 數(shù)據(jù)集

常用的文本摘要數(shù)據(jù)集有 DUC 數(shù)據(jù)集、New York Times 數(shù)據(jù)集、CNN/Daily Mail 數(shù)據(jù)集、 Gigaword 數(shù)據(jù)集、LCSTS 數(shù)據(jù)集。

由于 DUC 數(shù)據(jù)集規(guī)模較小,因此神經(jīng)網(wǎng)絡(luò)模型往往在其他數(shù)據(jù)集上進(jìn)行訓(xùn)練,再在 DUC 數(shù)據(jù)集上進(jìn)行測(cè)試。

NYT 數(shù)據(jù)集包含了發(fā)表于 1996 至 2007 年期間的文章,摘要由專家編寫而成。該數(shù)據(jù)集的摘要有時(shí)候不是完整的句子,并且長(zhǎng)度較短,大約平均 40 個(gè)詞語(yǔ)。

目前廣泛使用的是 CNN/Daily Mail 數(shù)據(jù)集,屬于多句摘要數(shù)據(jù)集,常用于訓(xùn)練“生成式”摘要系統(tǒng)。該數(shù)據(jù)集一共有兩個(gè)版本,匿名(Anonymized)版本和未匿名(Non-anonymized)版本,未匿名版本包括了真實(shí)的實(shí)體名(Entity names),匿名版本將實(shí)體使用特定的索引進(jìn)行替換。

Gigaword 數(shù)據(jù)集摘要由文章第一句話和題目結(jié)合啟發(fā)式規(guī)則構(gòu)成。

LCSTS 為中文短文本摘要數(shù)據(jù)集,由新浪微博構(gòu)建得到。

6. 總結(jié)

文本摘要作為傳統(tǒng)的自然語(yǔ)言處理任務(wù),至今依舊有新的發(fā)展和創(chuàng)新,這一方面得益于模型、方法、語(yǔ)料的支撐,另一方面也是由于摘要任務(wù)自身的重要性。摘要生成作為文本生成的一種,除了有著重復(fù)、冗余、不連貫、生成較短等問題,還有著摘要任務(wù)特定的問題,其中最核心的為:如何確定關(guān)鍵信息。當(dāng)下的文本摘要更關(guān)注“什么是真正的摘要”,而不僅僅是簡(jiǎn)單地句子壓縮。利用外部知識(shí),利用關(guān)鍵詞信息等方式來更好的輔助摘要的生成。各個(gè)摘要模型各有優(yōu)點(diǎn),在實(shí)驗(yàn)結(jié)果上各有優(yōu)勢(shì)。因此在考慮評(píng)價(jià)指標(biāo)的同時(shí),更應(yīng)該關(guān)注問題本身,才能使得方法更具有普適性,更好的滿足真實(shí)需要。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:工大SCIR | 文本摘要簡(jiǎn)述

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    求助基于labview的神經(jīng)網(wǎng)絡(luò)pid控制

    小女子做基于labview的蒸發(fā)過程中液位的控制,想使用神經(jīng)網(wǎng)絡(luò)pid控制,請(qǐng)問這個(gè)控制方法可以嗎?有誰(shuí)會(huì)神經(jīng)網(wǎng)絡(luò)pid控制么。。。叩謝
    發(fā)表于 09-23 13:43

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會(huì)在意它呢? 對(duì)于這些非常中肯的問題,我們似乎可以給出相對(duì)簡(jiǎn)明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    今天學(xué)習(xí)了兩個(gè)神經(jīng)網(wǎng)絡(luò),分別是自適應(yīng)諧振(ART)神經(jīng)網(wǎng)絡(luò)與自組織映射(SOM)神經(jīng)網(wǎng)絡(luò)。整體感覺不是很難,只不過一些最基礎(chǔ)的概念容易理解不清。首先ART神經(jīng)網(wǎng)絡(luò)是競(jìng)爭(zhēng)學(xué)習(xí)的一個(gè)代表,
    發(fā)表于 07-21 04:30

    人工神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)方法有哪些?

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)是一種類似生物神經(jīng)網(wǎng)絡(luò)的信息處理結(jié)構(gòu),它的提出是為了解決一些非線性,非平穩(wěn),復(fù)雜的實(shí)際問題。那有哪些辦法能實(shí)現(xiàn)人工神經(jīng)網(wǎng)絡(luò)呢?
    發(fā)表于 08-01 08:06

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測(cè)的計(jì)算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預(yù)測(cè)
    發(fā)表于 07-12 08:02

    基于BP神經(jīng)網(wǎng)絡(luò)的PID控制

    神經(jīng)網(wǎng)絡(luò)可以建立參數(shù)Kp,Ki,Kd自整定的PID控制器?;贐P神經(jīng)網(wǎng)絡(luò)的PID控制系統(tǒng)結(jié)構(gòu)框圖如下圖所示:控制器由兩部分組成:經(jīng)典增量PID控制器;BP神經(jīng)網(wǎng)絡(luò)...
    發(fā)表于 09-07 07:43

    卷積神經(jīng)網(wǎng)絡(luò)一維卷積的處理過程

    以前的神經(jīng)網(wǎng)絡(luò)幾乎都是部署在云端(服務(wù)器上),設(shè)備端采集到數(shù)據(jù)通過網(wǎng)絡(luò)發(fā)送給服務(wù)器做inference(推理),結(jié)果再通過網(wǎng)絡(luò)返回給設(shè)備端。如今越來越多的神經(jīng)網(wǎng)絡(luò)部署在嵌入
    發(fā)表于 12-23 06:16

    神經(jīng)網(wǎng)絡(luò)移植到STM32的方法

    神經(jīng)網(wǎng)絡(luò)移植到STM32最近在做的一個(gè)項(xiàng)目需要用到網(wǎng)絡(luò)進(jìn)行擬合,并且將擬合得到的結(jié)果用作控制,就在想能不能直接在單片機(jī)上做神經(jīng)網(wǎng)絡(luò)計(jì)算,這樣就可以實(shí)時(shí)計(jì)算,不依賴于上位機(jī)。所以要解決的主要是兩個(gè)
    發(fā)表于 01-11 06:20

    自適應(yīng)模糊神經(jīng)網(wǎng)絡(luò)研究

    模糊神經(jīng)網(wǎng)絡(luò)提供了從人工神經(jīng)網(wǎng)絡(luò)中模糊規(guī)則的抽取。本文研究模糊神經(jīng)網(wǎng)絡(luò)的自適應(yīng)學(xué)習(xí)、規(guī)則插入和抽取神經(jīng)
    發(fā)表于 06-06 13:45 ?18次下載

    基于BP神經(jīng)網(wǎng)絡(luò)的小麥病害診斷知識(shí)獲取

    為了從神經(jīng)網(wǎng)絡(luò)中獲取易于理解的知識(shí),以小麥病害診斷為例,研究了BP 神經(jīng)網(wǎng)絡(luò)的規(guī)則抽取,提出一種基于結(jié)構(gòu)分析的BP 神經(jīng)網(wǎng)絡(luò)規(guī)則抽取
    發(fā)表于 07-30 09:18 ?13次下載

    基于免疫聚類的神經(jīng)網(wǎng)絡(luò)集成的研究

    基于免疫聚類的思想,提出了一種神經(jīng)網(wǎng)絡(luò)集成方法。采用輪盤賭選擇方法重復(fù)地從各免疫聚類中的抽取樣本以構(gòu)成神經(jīng)網(wǎng)絡(luò)集成中各個(gè)體
    發(fā)表于 02-21 11:24 ?7次下載

    Chebyshev神經(jīng)網(wǎng)絡(luò)電路設(shè)計(jì)

    摘要:以Chebyshev神經(jīng)網(wǎng)絡(luò)為基礎(chǔ),給出了非線性函數(shù)的仿真實(shí)例.并提出了用模擬電路實(shí)現(xiàn)Chebyshev神經(jīng)網(wǎng)絡(luò)方法。關(guān)鍵詞:Chebyshev
    發(fā)表于 05-06 10:42 ?6次下載

    基于HMM和小波神經(jīng)網(wǎng)絡(luò)混合模型的Web信息抽取_李少天

    基于HMM和小波神經(jīng)網(wǎng)絡(luò)混合模型的Web信息抽取_李少天
    發(fā)表于 03-19 11:38 ?0次下載

    抽取摘要方法中如何合理設(shè)置抽取單元?

    的核心問題。抽取摘要則是文本摘要技術(shù)中效果穩(wěn)定,實(shí)現(xiàn)簡(jiǎn)單的一類方法,本文結(jié)合COLING 2020中
    的頭像 發(fā)表于 05-03 18:23 ?1529次閱讀
    <b class='flag-5'>抽取</b><b class='flag-5'>式</b><b class='flag-5'>摘要</b><b class='flag-5'>方法</b>中如何合理設(shè)置<b class='flag-5'>抽取</b>單元?

    神經(jīng)網(wǎng)絡(luò)原理簡(jiǎn)述—參數(shù)正則

    前面的一篇原理簡(jiǎn)述的文章中,給大家簡(jiǎn)單介紹了神經(jīng)網(wǎng)絡(luò)前(后)傳播的有向圖、反向傳播的計(jì)算和更新。這篇文章跟大家簡(jiǎn)單討論一下神經(jīng)...
    發(fā)表于 02-07 11:33 ?3次下載
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>原理<b class='flag-5'>簡(jiǎn)述</b>—參數(shù)正則