0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于主觀知識(shí)的任務(wù)型對(duì)話建模

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:哈工大SCIR ? 2023-10-31 16:48 ? 次閱讀

1 引言

對(duì)話系統(tǒng)技術(shù)挑戰(zhàn)賽 DSTC(The Dialog System Technology Challenge)是對(duì)話技術(shù)領(lǐng)域的頂級(jí)賽事,到 2023 年已舉辦至第 11 屆。

DSTC11 共設(shè)有 5 個(gè)賽道,其中剛剛結(jié)束的 track5 的主題是基于主觀知識(shí)的任務(wù)型對(duì)話建模。本賽道包括三個(gè)子任務(wù):

Turn Detection:判斷當(dāng)前的對(duì)話是否需要外部知識(shí)

Knowledge Selection:在非結(jié)構(gòu)化主觀知識(shí)文檔中選出相關(guān)的知識(shí)候選

Response Generation:根據(jù)第二步的知識(shí)候選生成回復(fù)

我們參加了 DSTC11-track5 并在所有 14 個(gè)參賽隊(duì)伍中排名第三(客觀指標(biāo)),其中 Turn Detection 子任務(wù)排名第一。本文將介紹 track 5 相關(guān)內(nèi)容以及我們?cè)诟?jìng)賽中嘗試的方法。

2 賽題介紹

我們?cè)诒菊轮性敿?xì)介紹具有主觀知識(shí)的任務(wù)型對(duì)話 (SK-TOD) 建模任務(wù)的數(shù)據(jù)集、子任務(wù)、競(jìng)賽評(píng)價(jià)指標(biāo)以及進(jìn)行的前期相關(guān)調(diào)研。

2.1 數(shù)據(jù)集介紹

下圖[1]為對(duì)話數(shù)據(jù)集中的三個(gè)對(duì)話實(shí)例和與它們相關(guān)的知識(shí)數(shù)據(jù)中的主觀知識(shí)條目示例:

01ca1bb0-779c-11ee-939d-92fbcf53809c.png

對(duì)話實(shí)例與主觀知識(shí)條目示例

對(duì)話數(shù)據(jù)集有兩部分來(lái)源:

主辦方標(biāo)注的 19696 條需要主觀知識(shí)的對(duì)話,這些對(duì)話既有包含單個(gè)實(shí)體,又有包含多個(gè)實(shí)體的(如圖 1 的 Dialogue 2)。

從 MultiWOZ[2] 任務(wù)型對(duì)話數(shù)據(jù)集中抽取的 18383 條不需要主觀知識(shí)的對(duì)話。

知識(shí)包括兩種:review 類型的主觀知識(shí)(由多個(gè)句子組成) 和 FAQs 類型的知識(shí)(問(wèn)答對(duì))。這些知識(shí)被被劃分為兩個(gè)域:hotel 和 restaurant,分別包含 33 個(gè)實(shí)體和 110 個(gè)實(shí)體。

例如,hotel 域中的 Hobsons House 實(shí)體,包含的 review 知識(shí)有:

"IwasverypleasewithmyrecentvisittoHobsonsHouse." "Iwasonabusinesstripandneededaquietplacetostayandthisplacefitthebill!" "WhileIwasnotpleasedwiththeslowwi-fiandsmallroom,Iwascontentwiththeirawesomebreakfastoptions,friendlyandengagingstaffmembersandthebestpart!" "Niceandquiet,justthewayIlikeit!" "Woulddefinitelyrecommendthisplacetofriendsandplanonstayinghereagainonmynextventure!" ...

包含的 FAQs 知識(shí)有:

question:"Whatdoyouofferforbreakfast?", answer:"AnFullEnglish/IrishbreakfastisavailableattheHOBSONSHOUSE" question:"Whatisthecheck-outtimeatyourlocation?", answer:"Check-outtimeattheHobsonsHouseisbetween7:30amand10am." ...

2.2 問(wèn)題定義

我們給出 DSTC11-track5 賽題的一般化定義。對(duì)于每一個(gè)對(duì)話實(shí)例 ,除最后一輪外,之前每一輪都有 agent 的回復(fù) 與用戶查詢 對(duì)應(yīng)。整個(gè)對(duì)話實(shí)例 可能與一個(gè)或多個(gè)實(shí)體相關(guān),我們將該實(shí)體集合定義為。

定義主觀知識(shí)數(shù)據(jù),其中,表示每一個(gè)實(shí)體包含的若干知識(shí)條目。

我們的做法將整個(gè)任務(wù)進(jìn)一步分解為如下圖所示的四個(gè)階段:

01f1eafa-779c-11ee-939d-92fbcf53809c.png

圖2. 基于主觀知識(shí)的任務(wù)型對(duì)話建模流程

Turn Detection:判斷用戶最后一輪查詢 是否需要主觀知識(shí)

Entity Tracking:如需要主觀知識(shí),則確定與之相關(guān)的實(shí)體集合 (本部分不在比賽評(píng)測(cè)中)

Entry Selection:從實(shí)體 包含的知識(shí)候選集合 中選出相關(guān)的主觀知識(shí)條目

Response Generation:由對(duì)話上文 和相關(guān)的主觀知識(shí)條目生成回復(fù)

本賽道的難點(diǎn)有三個(gè):

當(dāng)需要檢索主觀知識(shí)時(shí),每個(gè)對(duì)話對(duì)應(yīng)的知識(shí)條目是不確定數(shù)目的若干條;

驗(yàn)證集和測(cè)試集的分布與訓(xùn)練集有較大差異,有大量的 unseen 信息;

不同的主觀知識(shí)有不同的情感傾向,回復(fù)中需要考慮多條主觀知識(shí)中的不同情感傾向。

2.3 評(píng)價(jià)指標(biāo)

三個(gè)子任務(wù)的評(píng)價(jià)指標(biāo)分別為:

Turn Detection:Precision、Recall、F1

Knowledge Selection:Precision、Recall、F1、Exact Match

Response Generation:BLEU、METEOR、ROUGE-1、ROUGE-2、Rouge-L

客觀評(píng)測(cè)的最終分?jǐn)?shù)為每個(gè)評(píng)價(jià)指標(biāo)排名的倒數(shù)和,即

其中 為第 個(gè)評(píng)測(cè)指標(biāo)的結(jié)果在所有參賽結(jié)果中的排名。

2.4 相關(guān)調(diào)研

我們首先調(diào)研了 DSTC 的往屆比賽,其中 DSTC9-track1 和 DSTC10-track2 均與本屆賽題類似。

DSTC9-track1 的問(wèn)題定義,數(shù)據(jù)集格式與本賽題完全相同,唯一的不同點(diǎn)在于每輪對(duì)話只需找出一條最相關(guān)的知識(shí),問(wèn)題要簡(jiǎn)單許多:

He[3]等人提出了圖式引導(dǎo)的知識(shí)決策、否定強(qiáng)化的知識(shí)選擇和基于知識(shí)及機(jī)器理解的回復(fù)生成以適應(yīng)三個(gè)子任務(wù)。

Tang[4]等人提出了基于 API 關(guān)鍵字與對(duì)話上下文相關(guān)性學(xué)習(xí)的方法。

DSTC10-track2 將外部知識(shí)數(shù)據(jù)從書(shū)面語(yǔ)更改為口語(yǔ),使得構(gòu)建高泛化能力的模型更為重要。而且,由于該競(jìng)賽并未給出訓(xùn)練集,參賽隊(duì)伍提出了很多有效的數(shù)據(jù)增廣方法:

Yan[5]等人提出了一種基于域分類任務(wù)和實(shí)體選擇任務(wù)來(lái)學(xué)習(xí)多級(jí)語(yǔ)義信息的方法,以及通過(guò)注入基于語(yǔ)音相似性的人工生成的擾動(dòng)方法來(lái)擴(kuò)充書(shū)面數(shù)據(jù)的思路。

Xu[6]等人首次嘗試將掩碼跨度語(yǔ)言建模應(yīng)用于對(duì)話狀態(tài)生成,該方法有效增強(qiáng)了模型的泛化能力。

Whang[7]等人使用了 Levenstein 距離進(jìn)行后處理來(lái)避免模型預(yù)測(cè)失真問(wèn)題。

Yu[8]等人在 baseline 中增加了卷積層,這一改動(dòng)獲得了更好的跨度預(yù)測(cè)性能,并使用了一種稱為 multiple 的跟蹤多值的自適應(yīng)方法。

Cho[9]等人采用了實(shí)體檢測(cè)以及域跟蹤的方法縮小了候選知識(shí)的范圍。

Tan[10]等人提出了基于指針網(wǎng)絡(luò)的“知識(shí)復(fù)制”方法,有效減輕了 decoder 的壓力,同時(shí)提出分段響應(yīng)的方法:用不同的模型生成知識(shí)選取部分和問(wèn)候應(yīng)答部分。

除此外,我們還調(diào)研了一些使用 MultiWOZ 數(shù)據(jù)集做端到端對(duì)話生成的模型:

He[11]等人提出的 GALAXY 模型使用門(mén)控機(jī)制來(lái)給未標(biāo)記數(shù)據(jù)打偽標(biāo)簽。

Lee[12]設(shè)計(jì)了一個(gè)巧妙的模型,用對(duì)話狀態(tài)跟蹤模塊在考慮對(duì)話歷史的情況下跟蹤信念狀態(tài)(用戶目標(biāo)),然后再通過(guò)信念狀態(tài)作為查詢獲得數(shù)據(jù)庫(kù)狀態(tài),最后生成回復(fù)。

3 競(jìng)賽方案

3.1 數(shù)據(jù)增強(qiáng)

我們基于原始數(shù)據(jù)集構(gòu)造了兩種增強(qiáng)數(shù)據(jù)集:

unseen 數(shù)據(jù)集:利用知識(shí)數(shù)據(jù)擴(kuò)充對(duì)話。在對(duì)話數(shù)據(jù)集中,每一個(gè)對(duì)話實(shí)例都圍繞一個(gè)實(shí)體展開(kāi),知識(shí)數(shù)據(jù)中會(huì)有很多與這個(gè)實(shí)體相關(guān)的問(wèn)答型知識(shí)(FAQ)。我們將這些問(wèn)答對(duì)隨機(jī)拼接在原始的對(duì)話實(shí)例中,就得到了只涉及一個(gè)實(shí)體的新的對(duì)話實(shí)例。為了模擬真實(shí)場(chǎng)景中話題轉(zhuǎn)移,我們?cè)诹硪粋€(gè)實(shí)體下生成對(duì)話的另一部分,并以 80% 的概率將它們拼接在一起[13]。

noise 數(shù)據(jù)集:采用谷歌翻譯服務(wù)將英語(yǔ)翻譯成其它四種語(yǔ)言(西班牙語(yǔ)/德語(yǔ)/日語(yǔ)/法語(yǔ)),然后再將其回譯為英語(yǔ)。當(dāng)回譯句子與原句子相似度過(guò)高(這一現(xiàn)象在英法互譯中較為普遍)時(shí),我們使用 Wordnet 進(jìn)行同義詞替換以增加其多樣性。最后,我們將對(duì)話數(shù)據(jù)集及知識(shí)數(shù)據(jù)擴(kuò)充為原來(lái)的 5 倍,這些數(shù)據(jù)用于對(duì)模型預(yù)訓(xùn)練。進(jìn)一步將 5 種對(duì)話數(shù)據(jù)集和知識(shí)數(shù)據(jù)兩兩組合,得到原來(lái) 25 倍大小的數(shù)據(jù)集。因?yàn)榛刈g和同義詞替換引入了詞級(jí)和語(yǔ)義級(jí)的干擾,所以我們定義此數(shù)據(jù)為noise數(shù)據(jù)。

3.2 Turn Detection 階段

本階段的目標(biāo)是判斷當(dāng)前對(duì)話用戶的最后一輪查詢是否需要主觀知識(shí),是一個(gè)二分類問(wèn)題。

我們使用自編碼預(yù)訓(xùn)練模型 DeBERTa-v3-base[14],將當(dāng)前對(duì)話上文和最一輪查詢 作為輸入,取最后一個(gè)隱藏層的第一個(gè) token 即 [CLS] 的向量作為對(duì)話表示,將其輸入一個(gè)線性層中就求得分類概率:

為了在后面進(jìn)行模型融合,提高整體的泛化能力,我們訓(xùn)練了三個(gè)模型,分別適用于三種場(chǎng)景:

Seen expert。使用 DSTC11-track5 提供的訓(xùn)練集微調(diào) DeBERTA-v3-base 模型,得到在驗(yàn)證集上表現(xiàn)最好的模型。這個(gè)模型在見(jiàn)過(guò)的對(duì)話實(shí)例上有極好的表現(xiàn)。

Unseen expert。為增強(qiáng)模型在未見(jiàn)過(guò)的對(duì)話實(shí)例上的檢測(cè)能力,我們使用 3.1 介紹的 unseen 數(shù)據(jù)集對(duì) RoBERTa[15] 模型進(jìn)行微調(diào)。

De-noise expert。為得到一個(gè)泛化能力較強(qiáng)的模型,我們考慮使用 3.1 介紹的 noise 數(shù)據(jù)集進(jìn)行訓(xùn)練。首先,用回譯的 5 倍數(shù)據(jù)集基于 word-masking[16]預(yù)訓(xùn)練方法對(duì) DeBERTa 模型進(jìn)行預(yù)訓(xùn)練,然后,使用兩兩組合的 25 倍含有噪音的數(shù)據(jù)集進(jìn)行微調(diào)。

在后面,我們會(huì)使用基于差異感知的模型融合方法來(lái)融合這三種模型,讓它們相得益彰。

3.3 Entity Track 階段

本階段的目標(biāo)是確定與當(dāng)前對(duì)話用戶的最后一輪查詢相關(guān)的實(shí)體。該階段可以縮小后續(xù)知識(shí)選擇的范圍。

我們使用啟發(fā)式方法為每個(gè)實(shí)體名稱建立一個(gè)詞典,然后基于 n-gram 匹配最后一輪對(duì)話中出現(xiàn)的實(shí)體。這種方法已經(jīng)能達(dá)到較為不錯(cuò)的結(jié)果,驗(yàn)證集性能為 F1=0.9676,accuracy=0.9398。

3.4 Entry Selection 階段

本階段目標(biāo)是選出與用戶查詢相關(guān)的知識(shí)條目。輸入是對(duì)話上文,以及知識(shí)候選 ,輸出為知識(shí)候選的子集 。我們使用同一個(gè)編碼器獲得兩者的表示 ,。然后將 ,, 拼接在一起計(jì)算相關(guān)性:

在訓(xùn)練時(shí),我們將與 ground-truth 同一實(shí)體的知識(shí)和其它實(shí)體的知識(shí)按 1 : 1 比例構(gòu)造負(fù)例。在驗(yàn)證時(shí),我們使用 Entity Track 階段確定的實(shí)體中的知識(shí)作為知識(shí)候選。

與 Turn Detection 類似,我們同樣訓(xùn)練了 Seen expert,Unseen expert 和 De-noise expert 這三種模型,之后也使用基于差異感知的模型融合方法來(lái)融合這三種模型。

3.5 Response Generation 階段

本階段目標(biāo)是基于對(duì)話上下文 和相關(guān)知識(shí)片段 來(lái)創(chuàng)建響應(yīng)用戶請(qǐng)求的回復(fù) 。我們將 和 連接起來(lái)作為輸入,并使用經(jīng)預(yù)訓(xùn)練的生成模型來(lái)生成回復(fù)。

我們既考慮了 decoder-only 架構(gòu)的模型(如 GPT-2[17])也考慮了 encoder-decoder 架構(gòu)的模型(如 BART[18]和 T5[19])。

此外,為了降低 Entity Track 和 Entry Selection 階段對(duì)本階段的影響,我們?cè)谟?xùn)練時(shí)使用了一些方法調(diào)整模型輸入:

拼接對(duì)話時(shí)額外添加實(shí)體名字段強(qiáng)化實(shí)體信息;

隨機(jī)丟棄 15% 的知識(shí)以讓模型在 Entry Selection 階段漏選知識(shí)時(shí)仍能取得良好的生成效果。

此外,我們還考慮了其他生成方式:

使用 KAT-TSLF 結(jié)構(gòu)[20],考察將對(duì)話上下文和全部候選知識(shí)條目作為輸入以及將對(duì)話上下文和 KS 階段選取的知識(shí)條目作為輸入,但是效果均不如 BART 模型;

使用在本任務(wù)上經(jīng)過(guò) alpaca 微調(diào)的 LLAMA-13B[21],結(jié)合專門(mén)設(shè)計(jì)的 instruction,輸入對(duì)話上下文和所選的知識(shí)條目來(lái)生成回復(fù)。然而,正如近期研究顯示,LLM 存在幻覺(jué)問(wèn)題[22],不能很好地執(zhí)行特定領(lǐng)域或知識(shí)密集型任務(wù)。因此該模型在本任務(wù)上其表現(xiàn)也不如 BART 模型。

3.6 基于差異感知的模型融合方法

為了融合 Seen expert,Unseen expert 和 De-noise expert 這三種模型,我們提出了一種基于差異感知的模型融合方法。

以 Entry Selection 階段訓(xùn)練出來(lái)的三種模型為例。對(duì)于驗(yàn)證集的第 個(gè)對(duì)話實(shí)例,設(shè) 為 ground-truth 標(biāo)簽,它包含 條知識(shí)。我們用不同模型得到 條知識(shí)條目候選,并將它們按相關(guān)度降序排列。對(duì)于每個(gè)知識(shí)條目候選,我們?yōu)槠湓O(shè)置權(quán)重為它的相關(guān)度排序加一的倒數(shù)。例如 Seen-expert 模型得到的知識(shí)候選的第 條 權(quán)重為 。同理, 和 分別為 Unseen expert 和 De-noise expert 得到的知識(shí)候選和權(quán)重。

由此得到知識(shí)候選集合,對(duì)于第 條知識(shí),將它的融合權(quán)重定義為,其中,如果存在 使 ,則 ,否則, 是超參數(shù),滿足 。

此外,我們還對(duì)權(quán)重設(shè)置了一個(gè)閾值,得到的超過(guò)閾值的知識(shí)條目集合 即為最終輸出。使用驗(yàn)證集的 Recall/Precision/F1/EM 等指標(biāo)學(xué)習(xí)超參數(shù) ,整體算法如下圖所示:

020ac2be-779c-11ee-939d-92fbcf53809c.png

算法流程圖

該方法對(duì)于不同任務(wù)和不同數(shù)據(jù)集均可適用:

比如在 Entry Selection 階段,為同時(shí)保證知識(shí)選擇的準(zhǔn)確率和召回率,我們使用權(quán)重閾值來(lái)決定該知識(shí)是否相關(guān),而不是直接選擇 Top-N 權(quán)重的知識(shí)。

對(duì)于不同測(cè)試集,我們可以根據(jù)其中 unseen 對(duì)話條數(shù)的比例相應(yīng)調(diào)整驗(yàn)證集中 unseen 的比例來(lái)學(xué)習(xí) 。通過(guò) 的調(diào)整,測(cè)試集中 unseen 對(duì)話條數(shù)比例越高,我們的 Unseen expert 在最后權(quán)重占比也就越大。

4 結(jié)果分析

本章分析我們的方法在驗(yàn)證集及最終測(cè)試集上的表現(xiàn)。

4.1 Turn Detection 子任務(wù)

Turn Detection 子任務(wù)實(shí)驗(yàn)結(jié)果如表 1 所示:

02223b7e-779c-11ee-939d-92fbcf53809c.png

表1 Turn Detection 子任務(wù)實(shí)驗(yàn)結(jié)果

不難看出 baseline 在驗(yàn)證集上已經(jīng)有了很高的性能??紤]到最終測(cè)試集中有 unseen 對(duì)話 ,于是我們使用基于差異感知的模型融合方法,力求在測(cè)試集的 unseen 對(duì)話上獲得更好的性能。

我們分別使用 Precision、Recall 和 F1 作為指標(biāo)來(lái)學(xué)習(xí)模型融合參數(shù),因?yàn)楦叩?Recall 對(duì) unseen 對(duì)話更有效,所以我們選擇 Recall 和 F1 訓(xùn)練的結(jié)果模型融合結(jié)果作為最終提交。

在最終測(cè)試集上,我們的方法在所有提交結(jié)果中 F1 指標(biāo)排名第一,Recall 指標(biāo)排名第二,三項(xiàng)總和排名第一。

4.2 Knowledge Selection 子任務(wù)

Knowledge Selection 子任務(wù)實(shí)驗(yàn)結(jié)果如表 2 所示:

02277f26-779c-11ee-939d-92fbcf53809c.png

表2 knowledge selection 子任務(wù)實(shí)驗(yàn)結(jié)果

可以看到:

我們的單個(gè)模型表現(xiàn)都只略好于 baseline,然而使用我們的模型融合方法后,性能大幅提高,這說(shuō)明我們的模型融合方法能結(jié)合不同 expert 的優(yōu)勢(shì),使得模型綜合性能大大提升;

分別使用不同的指標(biāo)學(xué)習(xí)模型融合參數(shù),就能得到相應(yīng)指標(biāo)下表現(xiàn)最好的模型。

我們依據(jù) 4 個(gè)指標(biāo)的驗(yàn)證集結(jié)果總和選擇最后兩個(gè)結(jié)果(F1 和 EM)作為最終提交。在測(cè)試集上,我們的方法具有一致的性能,并且在很大程度上優(yōu)于 baseline。尤其在 EM 指標(biāo)上,我們的方法比 baseline 高出 14%。

為下一節(jié)表述方便,我們將這兩個(gè)結(jié)果表示為 KS-F1 和 KS-EM。

4.3 Response Generation 子任務(wù)

Response Generation 子任務(wù)實(shí)驗(yàn)結(jié)果如表 3 所示:

023d225e-779c-11ee-939d-92fbcf53809c.png

表3 knowledge selection 子任務(wù)實(shí)驗(yàn)結(jié)果

我們?cè)谏苫貜?fù)過(guò)程中并沒(méi)有使用模型融合方法。上述結(jié)果可以反映出知識(shí)選擇子任務(wù)對(duì)生成任務(wù)的影響。

使用 KS-F1 的 BART-base 生成結(jié)果在所有指標(biāo)上都優(yōu)于 baseline。這一結(jié)果表明,KS-F1 提供了更高質(zhì)量的知識(shí)條目,并再次證明了我們模型融合方法的有效性。

BART-large 和 T5 作為更大的模型,在大多數(shù)指標(biāo)上都優(yōu)于 BART-base。此外,BART-large (KS-F1) 的 BLEU 指標(biāo)表現(xiàn)極好,在所有提交中排名第二。BART-large (KS-EM) 在 ROUGE 指標(biāo)上表現(xiàn)更好,T5-3B (KS-EM) 在 METEOR 指標(biāo)上更好。然而,T5 在測(cè)試集上的 BLEU 指標(biāo)表現(xiàn)不佳,與 BART-large 相比沒(méi)有明顯的優(yōu)勢(shì)。

5 總結(jié)

我們?cè)?DSTC11-track5 競(jìng)賽中提出了一種基于差異感知的模型融合方法。該方法很好的解決了競(jìng)賽的兩大難點(diǎn):

每個(gè)對(duì)話實(shí)例都與數(shù)量不定的若干條知識(shí)相關(guān),如何讓模型學(xué)習(xí)到這種分類能力。

訓(xùn)練集、驗(yàn)證集和測(cè)試集分布差異較大,如何讓模型在 seen 對(duì)話和 unseen 對(duì)話上都能有不錯(cuò)的表現(xiàn)。

最后我們獲得了客觀指標(biāo)排名第三的成績(jī),這一成績(jī)證明了我們方法的有效性。

未來(lái)可以繼續(xù)嘗試的工作包括:

知識(shí)選擇子任務(wù):

可以將基于差異感知的模型融合方法同樣運(yùn)用在 Entity Track 階段。

review 型的主觀知識(shí)和 FAQ 型的主觀知識(shí)具有不同的語(yǔ)義特性,比如 FAQ 的問(wèn)句可能與用戶查詢有著較高的相似度,考慮如何分別對(duì)這兩類知識(shí)進(jìn)行選擇。

回復(fù)生成子任務(wù):

可以考慮分別用對(duì)話歷史 encoder 和外部知識(shí) encoder 對(duì)輸入進(jìn)行編碼再對(duì)其加以融合,這可能有助于模型對(duì)于對(duì)話生成和知識(shí)整合兩部分的單獨(dú)學(xué)習(xí)。

可以考慮使用大模型對(duì)知識(shí)加以初步的理解,再用我們的回復(fù)生成模型根據(jù)被理解的信息進(jìn)行回復(fù),這可能有助于增強(qiáng)模型的泛化能力。

可以考慮用對(duì)話狀態(tài)追蹤技術(shù)分析輸入的對(duì)話歷史,這可能有助于增強(qiáng)模型抗干擾能力。

針對(duì)前文提到的第三個(gè)難點(diǎn),不同的主觀知識(shí)有不同的情感傾向??梢钥紤]使用特定的情感理解模型輔助生成的訓(xùn)練。

模型融合:

考慮進(jìn)一步優(yōu)化我們的基于差異感知的模型融合方法,讓模型自動(dòng)學(xué)習(xí)閾值。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3112

    瀏覽量

    48658
  • 追蹤技術(shù)
    +關(guān)注

    關(guān)注

    0

    文章

    19

    瀏覽量

    4291

原文標(biāo)題:基于主觀知識(shí)的任務(wù)型對(duì)話建模

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于CVR建模的多任務(wù)聯(lián)合學(xué)習(xí)訓(xùn)練方法——ESMM

    本文作者提出 ESMM 算法,通過(guò)定義新型多任務(wù)聯(lián)合訓(xùn)練的方式,以全新的視角對(duì) CVR 進(jìn)行建模。
    的頭像 發(fā)表于 08-27 16:41 ?5420次閱讀
    基于CVR<b class='flag-5'>建模</b>的多<b class='flag-5'>任務(wù)</b>聯(lián)合學(xué)習(xí)訓(xùn)練方法——ESMM

    結(jié)合NLU在面向任務(wù)對(duì)話系統(tǒng)中的具體應(yīng)用進(jìn)行介紹

    對(duì)面向任務(wù)對(duì)話系統(tǒng)來(lái)說(shuō),NLU模塊的主要任務(wù)是將用戶輸入的自然語(yǔ)言映射為用戶的意圖和相應(yīng)的槽位值。因此,在面向任務(wù)對(duì)話系統(tǒng)中,NLU模塊
    的頭像 發(fā)表于 03-21 09:31 ?5342次閱讀
    結(jié)合NLU在面向<b class='flag-5'>任務(wù)</b>的<b class='flag-5'>對(duì)話</b>系統(tǒng)中的具體應(yīng)用進(jìn)行介紹

    【安富萊原創(chuàng)】【STemWin教程】第39章 對(duì)話框基礎(chǔ)知識(shí)

    第39章 對(duì)話框基礎(chǔ)知識(shí) 在上期教程我們講解了控件的基礎(chǔ)知識(shí),本期教程我們接著講解一下對(duì)話框的基礎(chǔ)知識(shí),有了這兩部分的基礎(chǔ)
    發(fā)表于 04-29 10:39

    基于任務(wù)鏈的實(shí)時(shí)多任務(wù)軟件可靠性建模

    提出了以實(shí)時(shí)多任務(wù)系統(tǒng)中的任務(wù)鏈為組件,任務(wù)鏈運(yùn)行時(shí)間比例作為組件的權(quán)重系數(shù),建立實(shí)時(shí)多任務(wù)軟件的可靠性建模方法。該方法符合實(shí)時(shí)多
    發(fā)表于 03-03 11:47 ?16次下載

    知識(shí)型員工任務(wù)評(píng)價(jià)信息系統(tǒng)的指標(biāo)模型

    為解決企業(yè)人才評(píng)價(jià)和成長(zhǎng)問(wèn)題,以B/S模式構(gòu)建企業(yè)任務(wù)分派、評(píng)價(jià)及分析網(wǎng)絡(luò)信息系統(tǒng)。針對(duì)企業(yè)知識(shí)型員工的任務(wù)和創(chuàng)新業(yè)績(jī)管理構(gòu)建較為實(shí)用的評(píng)價(jià)、統(tǒng)計(jì)、分析指標(biāo)模型,
    發(fā)表于 04-11 10:05 ?24次下載

    四大維度講述了一個(gè)較為完整的智能任務(wù)對(duì)話全景

    這是一個(gè)非常典型的任務(wù)對(duì)話,它滿足兩個(gè)條件,第一,它有一個(gè)明確的目標(biāo);第二,它通過(guò)多輪對(duì)話交互來(lái)達(dá)成這個(gè)目標(biāo)。像這樣的任務(wù)
    的頭像 發(fā)表于 02-04 09:20 ?7080次閱讀
    四大維度講述了一個(gè)較為完整的智能<b class='flag-5'>任務(wù)</b><b class='flag-5'>型</b><b class='flag-5'>對(duì)話</b>全景

    強(qiáng)化學(xué)習(xí)應(yīng)用中對(duì)話系統(tǒng)的用戶模擬器

    近幾年來(lái),強(qiáng)化學(xué)習(xí)在任務(wù)導(dǎo)向對(duì)話系統(tǒng)中得到了廣泛的應(yīng)用,對(duì)話系統(tǒng)通常被統(tǒng)計(jì)建模成為一個(gè) 馬爾科夫決策過(guò)程(Markov Decision
    發(fā)表于 08-06 14:16 ?2011次閱讀

    強(qiáng)化學(xué)習(xí)在智能對(duì)話上的應(yīng)用介紹

    本文主要介紹深度強(qiáng)化學(xué)習(xí)在任務(wù)對(duì)話上的應(yīng)用,兩者的結(jié)合點(diǎn)主要是將深度強(qiáng)化學(xué)習(xí)應(yīng)用于任務(wù)對(duì)話
    的頭像 發(fā)表于 12-10 19:02 ?1002次閱讀

    對(duì)話中的情感分類任務(wù)建模為序列標(biāo)注 并對(duì)情感一致性進(jìn)行建模

    本文是平安科技發(fā)表在ACL2020上的一篇論文,思路比較新穎,它將ERC任務(wù)看做序列標(biāo)注任務(wù),并對(duì)情感一致性進(jìn)行建模。 ? 之前解決ERC的思路是利用上下文的話語(yǔ)特征預(yù)測(cè)對(duì)話中單個(gè)話語(yǔ)
    的頭像 發(fā)表于 01-18 16:24 ?3065次閱讀

    口語(yǔ)語(yǔ)言理解在任務(wù)對(duì)話系統(tǒng)中的探討

    1.1 研究背景與任務(wù)定義 口語(yǔ)語(yǔ)言理解在任務(wù)對(duì)話系統(tǒng)中扮演了一個(gè)非常重要的角色,其目的是識(shí)別出用戶的輸入文本中蘊(yùn)含的意圖和提及到的槽位,一般被分為意圖識(shí)別和槽位填充兩個(gè)子
    的頭像 發(fā)表于 03-31 17:48 ?2416次閱讀
    口語(yǔ)語(yǔ)言理解在<b class='flag-5'>任務(wù)</b><b class='flag-5'>型</b><b class='flag-5'>對(duì)話</b>系統(tǒng)中的探討

    視覺(jué)問(wèn)答與對(duì)話任務(wù)研究綜述

    視覺(jué)問(wèn)答與對(duì)話是人工智能領(lǐng)堿的重要硏究任務(wù),是計(jì)算機(jī)視覺(jué)與自然語(yǔ)言處理交叉領(lǐng)域的代表性問(wèn)題之一。視覺(jué)問(wèn)答與對(duì)話任務(wù)要求機(jī)器根據(jù)指定的視覺(jué)圖像內(nèi)容,對(duì)單輪或多輪的自然語(yǔ)言問(wèn)題進(jìn)行作答。視
    發(fā)表于 04-08 10:33 ?10次下載
    視覺(jué)問(wèn)答與<b class='flag-5'>對(duì)話</b><b class='flag-5'>任務(wù)</b>研究綜述

    NLP中基于聯(lián)合知識(shí)任務(wù)導(dǎo)向對(duì)話系統(tǒng)HyKnow

    Dialog Modeling with Hybrid 論文地址:https://arxiv.org/pdf/2105.06041v2.pdf 這篇文章提出了一個(gè)基于聯(lián)合知識(shí)任務(wù)導(dǎo)向對(duì)話
    的頭像 發(fā)表于 09-08 10:43 ?4256次閱讀

    基于知識(shí)對(duì)話生成任務(wù)

    基于知識(shí)對(duì)話生成任務(wù)(Knowledge-Grounded Dialogue Generation,KGD)是當(dāng)前對(duì)話系統(tǒng)的研究熱點(diǎn),這個(gè)任務(wù)
    的頭像 發(fā)表于 09-05 09:54 ?1614次閱讀

    NVIDIA NeMo 如何支持對(duì)話式 AI 任務(wù)的訓(xùn)練與推理?

    ,開(kāi)發(fā)和運(yùn)行可落地的語(yǔ)音人工智能服務(wù)仍然是一項(xiàng)復(fù)雜而艱巨的任務(wù),通常需要面臨實(shí)時(shí)性、可理解性、自然性、低資源、魯棒性等挑戰(zhàn)。 本期分享我們邀請(qǐng)到了? NVIDIA 的解決方案架構(gòu)師丁文 ,分享如何使用 NVIDIA NeMo 進(jìn)行對(duì)話式 AI
    的頭像 發(fā)表于 05-11 20:16 ?895次閱讀
    NVIDIA NeMo 如何支持<b class='flag-5'>對(duì)話</b>式 AI <b class='flag-5'>任務(wù)</b>的訓(xùn)練與推理?

    知識(shí)分享 | 輕松實(shí)現(xiàn)優(yōu)質(zhì)建模

    知識(shí)分享在知識(shí)分享欄目中,我們會(huì)定期與讀者分享來(lái)自MES模賽思的基于模型的軟件開(kāi)發(fā)相關(guān)Know-How干貨,關(guān)注公眾號(hào),隨時(shí)掌握基于模型的軟件設(shè)計(jì)的技術(shù)知識(shí)。輕松實(shí)現(xiàn)優(yōu)質(zhì)建模前言在基于
    的頭像 發(fā)表于 09-12 08:08 ?306次閱讀
    <b class='flag-5'>知識(shí)</b>分享 | 輕松實(shí)現(xiàn)優(yōu)質(zhì)<b class='flag-5'>建模</b>