0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

X-RiSAWOZ: 高質(zhì)量端到端多語言任務(wù)型對話數(shù)據(jù)集

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 2023-07-06 16:44 ? 次閱讀

1.

引言

由于構(gòu)建任務(wù)型對話數(shù)據(jù)集的成本較高,目前任務(wù)型對話的研究主要集中在少數(shù)流行語言上(如英語和中文)。為了降低新語言的數(shù)據(jù)采集成本,我們通過結(jié)合純?nèi)斯しg和人工編輯機(jī)器翻譯結(jié)果的方式創(chuàng)建了一個新的多語言基準(zhǔn)——X-RiSAWOZ,該數(shù)據(jù)集將中文RiSAWOZ翻譯成4種語言:英語、法語、印地語、韓語,以及1種語碼混合場景(印地語-英語混合)。X-RiSAWOZ中每種語言都有超過18,000個經(jīng)過人類驗(yàn)證的對話語句,與之前大多數(shù)多語言工作不同的是,它是一個端到端的數(shù)據(jù)集,可用于建立功能齊全的對話代理。除數(shù)據(jù)集外,我們還構(gòu)建了標(biāo)注和處理工具,使得向現(xiàn)有數(shù)據(jù)集中添加新語言變得更快、更經(jīng)濟(jì)。

2.

數(shù)據(jù)集介紹

任務(wù)定義:端到端任務(wù)型對話通常被分解為若干子任務(wù),這些任務(wù)可以由流水線系統(tǒng)或單個神經(jīng)網(wǎng)絡(luò)執(zhí)行。下圖展示了這些子任務(wù)及其輸入和輸出:

0d7630b6-1bd5-11ee-962d-dac502259ad0.png

圖1:端到端任務(wù)型對話流程

數(shù)據(jù)來源:我們翻譯了RiSAWOZ數(shù)據(jù)集的驗(yàn)證集與測試集,同時為了促進(jìn)少樣本對話系統(tǒng)的研究,我們還隨機(jī)選取了1%的訓(xùn)練集進(jìn)行翻譯,統(tǒng)計(jì)數(shù)據(jù)如下表所示:

0d9d1c12-1bd5-11ee-962d-dac502259ad0.png

圖2:X-RiSAWOZ數(shù)據(jù)集統(tǒng)計(jì)

數(shù)據(jù)集構(gòu)建方案:為了實(shí)現(xiàn)低成本和高質(zhì)量的多語言端到端任務(wù)型對話數(shù)據(jù)構(gòu)建,我們使用以下幾種技術(shù)從源語言數(shù)據(jù)(中文RiSAWOZ數(shù)據(jù)集)創(chuàng)建目標(biāo)語言的訓(xùn)練數(shù)據(jù):

1. 翻譯:為了在質(zhì)量和成本之間取得平衡,我們使用純?nèi)斯しg從中文翻譯成英文,并使用機(jī)器翻譯和后期編輯將英語數(shù)據(jù)翻譯成其他語言,以盡可能避免兩次翻譯過程中可能的錯誤傳播。

2. 對齊:我們提出了一種混合對齊策略,以確保實(shí)體在話語和信念狀態(tài)中都能被替換為所需的翻譯。具體而言,我們首先嘗試使用基于實(shí)體標(biāo)注構(gòu)建的字典對齊,如果輸出中沒有匹配的翻譯,則退回到神經(jīng)對齊(即使用encoder-decoder cross-attention權(quán)重匹配源語言和目標(biāo)語言中相對應(yīng)的實(shí)體)。

3. 自動標(biāo)注檢查:我們開發(fā)了一個標(biāo)注檢查器來自動標(biāo)記和糾正可能存在的錯誤,包括1)實(shí)體檢查階段——確保在實(shí)體的英語翻譯中所做的更改傳播到其他目標(biāo)語言的翻譯,以及2)API檢查階段——通過將翻譯后API調(diào)用的結(jié)果與提供的真實(shí)值進(jìn)行比較來檢查API的一致性。

數(shù)據(jù)構(gòu)建與檢查的流程如下圖所示:

0daf5ad0-1bd5-11ee-962d-dac502259ad0.png

圖3:數(shù)據(jù)集構(gòu)建流程(以漢語到英語為例)

0dd272ae-1bd5-11ee-962d-dac502259ad0.png

圖4:數(shù)據(jù)集檢查流程(以漢語到法語為例)

3.

實(shí)驗(yàn)結(jié)果

我們使用了mBART和m2m100 (for Korean only) 進(jìn)行實(shí)驗(yàn)。對于零樣本實(shí)驗(yàn),我們不使用任何人工創(chuàng)建的目標(biāo)語言數(shù)據(jù),只使用基于機(jī)器翻譯自動創(chuàng)建訓(xùn)練數(shù)據(jù)。對于少樣本實(shí)驗(yàn),我們從零樣本模型開始,并在目標(biāo)語言的少樣本數(shù)據(jù)集上進(jìn)一步對其進(jìn)行微調(diào)。實(shí)驗(yàn)的評估方式有兩種:Turn by Turn Evaluation和Full Conversation Evaluation。

Turn by Turn Evaluation:在這種設(shè)定下,我們在評估中使用所有先前輪次和子任務(wù)的ground truth數(shù)據(jù)作為輸入。結(jié)果表明,在零樣本設(shè)置中,性能因添加的語言而異,各個語言在對話狀態(tài)追蹤 (DST)達(dá)到了34.6%-84.2%的準(zhǔn)確率,在對話動作生成 (DA)上達(dá)到了42.8%-67.3%的準(zhǔn)確率,而在回復(fù)生成 (RG)上達(dá)到10.2-29.9的BLEU值,這意味著零樣本任務(wù)型對話在低資源語言場景下仍然是極具挑戰(zhàn)的任務(wù)。在少樣本數(shù)據(jù)上進(jìn)行微調(diào)可以改善所有語言的所有指標(biāo),其中DST提高到60.7%-84.6%,DA提高到38.0%-70.5%,而BLEU則提高到了28.5-46.4。從下圖的數(shù)據(jù)中可以看到,在印地語、韓語和英語-印地語中,DST的改進(jìn)尤其明顯,因?yàn)樵谶@些語言中,機(jī)器翻譯的質(zhì)量可能不太好。盡管如此,將自動翻譯的數(shù)據(jù)添加到訓(xùn)練中也能夠大大提高這些語言上任務(wù)型對話系統(tǒng)的準(zhǔn)確性,超過了僅用少量人工構(gòu)建數(shù)據(jù)訓(xùn)練的效果。

0e01c3ce-1bd5-11ee-962d-dac502259ad0.png

圖5:零樣本Turn by Turn Evaluation的結(jié)果

0e1e9274-1bd5-11ee-962d-dac502259ad0.png

圖6:少樣本Turn by Turn Evaluation的結(jié)果

Full Conversation Evaluation:在這種設(shè)定下,對于每個輪次,模型從上一個子任務(wù)的輸出中獲取輸入,用于下一個子任務(wù)。這反映了與用戶進(jìn)行交互式對話時的實(shí)際情況。結(jié)果顯示,在零樣本設(shè)置中,性能同樣因語言而異,其中英語、法語、印地語、韓語和英語-印地語的對話成功率分別達(dá)到了使用完整數(shù)據(jù)訓(xùn)練的中文對話模型的35%、16%、9%、11%和4%。在少-shot設(shè)置中,這個比率提高到了38%、26%、25%、23%和5%??梢钥吹?,最小和最大的改進(jìn)分別在英語和印地語數(shù)據(jù)集上。這表明,當(dāng)預(yù)訓(xùn)練數(shù)據(jù)的質(zhì)量較低時,少樣本數(shù)據(jù)的影響更大,這可能與中文和目標(biāo)語言之間的翻譯模型的質(zhì)量有關(guān)。

0e35674c-1bd5-11ee-962d-dac502259ad0.png

圖7:零樣本full conversation evaluation的結(jié)果

0e570546-1bd5-11ee-962d-dac502259ad0.png

圖8:少樣本full conversation evaluation的結(jié)果

4.

結(jié)語

我們構(gòu)建了X-RiSAWOZ,這是一個新的端到端、高質(zhì)量、大規(guī)模的多領(lǐng)域多語種對話數(shù)據(jù)集,其涵蓋了5種不同的語言和1種語碼混合場景,以及一個工具包,以便將數(shù)據(jù)翻譯成其他語言。我們還為跨語言遷移的零/少樣本對話系統(tǒng)提供了強(qiáng)大的基線系統(tǒng)??傮w而言,我們的工作為更高效、更具成本效益的多語言任務(wù)型對話系統(tǒng)的開發(fā)鋪平了道路。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:開源數(shù)據(jù) | X-RiSAWOZ: 高質(zhì)量端到端多語言任務(wù)型對話數(shù)據(jù)集

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    多語言開發(fā)的流程詳解

    現(xiàn)在不少應(yīng)用都是要求有多語言切換的, 使用QT開發(fā)上位機(jī)也同樣需要做多語言功能, 不過QT是自帶了多語言翻譯功能, 可以很方便的借助原生工具進(jìn)行, 下面就簡單來看看多語言開發(fā)的流程!
    的頭像 發(fā)表于 11-30 09:08 ?896次閱讀

    高質(zhì)量C語言編程

    高質(zhì)量c語言,精,精,精,精華
    發(fā)表于 07-22 13:48

    編寫高質(zhì)量C語言代碼

    編寫高質(zhì)量C語言代碼 編寫高質(zhì)量C語言代碼 編寫高質(zhì)量C語言代碼
    發(fā)表于 07-31 17:47

    林銳《高質(zhì)量C語言編程》

    林銳《高質(zhì)量C語言編程》
    發(fā)表于 08-17 12:10

    高質(zhì)量編程

    干貨,《495個C語言問題》、《華為內(nèi)部程序設(shè)計(jì)編碼規(guī)范》、《C語言:陷阱和缺陷》、《高質(zhì)量C編程[林銳]》
    發(fā)表于 02-27 19:39

    XMOS推出用于高質(zhì)量音頻再現(xiàn)的數(shù)字iPhone 底座

    XMOS推出用于高質(zhì)量音頻再現(xiàn)的數(shù)字iPhone 底座參考設(shè)計(jì) 英國布里斯托美國加州桑尼韋爾- 2010年2月23日,XMOS推出一套適合iPhone
    發(fā)表于 02-23 16:54 ?814次閱讀

    SoC多語言協(xié)同驗(yàn)證平臺技術(shù)研究

    SoC基于IP設(shè)計(jì)的特點(diǎn)使驗(yàn)證項(xiàng)目中多語言VIP(Verification IP)協(xié)同驗(yàn)證的需求不斷增加,給驗(yàn)證工作帶來了很大的挑戰(zhàn)。為了解決多語言VIP在SoC驗(yàn)證環(huán)境靈活重用的問題。提出了一種
    發(fā)表于 12-31 09:25 ?12次下載

    Mozilla使用開源Common Voice語音識別數(shù)據(jù)進(jìn)行多語言操作

    Mozilla 宣布它正在使其眾包項(xiàng)目 Common Voice 支持更多語言。Common Voice 是一個旨在創(chuàng)建開源語音識別數(shù)據(jù)的項(xiàng)目,于去年6月發(fā)布,它邀請來自世界各地的志愿者通過網(wǎng)絡(luò)和移動應(yīng)用程序,用他們的聲音記錄
    的頭像 發(fā)表于 06-12 11:18 ?4514次閱讀

    2021年OPPO開發(fā)者大會 生成式對話模式

    2021年OPPO開發(fā)者大會劉海鋒:生成式對話模式,基于UniLM和一對多語料的生成式聊天模型滿足用戶需求。
    的頭像 發(fā)表于 10-27 14:59 ?2421次閱讀
    2021年OPPO開發(fā)者大會 <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>生成式<b class='flag-5'>對話</b>模式

    如何創(chuàng)建高質(zhì)量、大規(guī)模、多語言數(shù)據(jù)

    方法更利于產(chǎn)生更高質(zhì)量數(shù)據(jù),但高強(qiáng)度的人工注釋過程限制了可創(chuàng)建的數(shù)據(jù)量。另一方面,雖然自動提取方法可以產(chǎn)生更大的數(shù)據(jù),但卻需要通過啟發(fā)式
    的頭像 發(fā)表于 10-29 10:22 ?2028次閱讀

    Multilingual多語言預(yù)訓(xùn)練語言模型的套路

    Facebook在Crosslingual language model pretraining(NIPS 2019)一文中提出XLM預(yù)訓(xùn)練多語言模型,整體思路基于BERT,并提出了針對多語言預(yù)訓(xùn)練的3個優(yōu)化任務(wù)。后續(xù)很多
    的頭像 發(fā)表于 05-05 15:23 ?2820次閱讀

    多語言任務(wù)在內(nèi)的多種NLP任務(wù)實(shí)現(xiàn)

    WeLM是一個百億級別的中文模型,能夠在零樣本以及少樣本的情境下完成包括對話-采訪、閱讀理解、翻譯、改寫、續(xù)寫、多語言閱讀理解在內(nèi)的多種NLP任務(wù),并具備記憶能力、自我糾正和檢查能力。
    發(fā)表于 10-13 11:52 ?566次閱讀

    基于的單噪聲圖像降噪和校正網(wǎng)絡(luò)實(shí)現(xiàn)高質(zhì)量的車牌識別

    具有挑戰(zhàn)性的LPR數(shù)據(jù)AOLP-RP和VTLPs進(jìn)行了大量的實(shí)驗(yàn),證明了我們提出的方法的有效性,并且在從低質(zhì)量的車牌圖像中恢復(fù)高質(zhì)量的車牌圖像時本方法優(yōu)于其他的SOAT方法。
    的頭像 發(fā)表于 12-13 09:58 ?838次閱讀

    如何構(gòu)建高質(zhì)量的大語言模型數(shù)據(jù)

    構(gòu)建高質(zhì)量的大語言模型數(shù)據(jù)是訓(xùn)練強(qiáng)大自然語言處理模型的關(guān)鍵一步。以下是一些關(guān)鍵步驟和考慮因素,有助于創(chuàng)建具有多樣性、準(zhǔn)確性和時效性的
    的頭像 發(fā)表于 09-11 17:00 ?1288次閱讀

    基于LLaMA的多語言數(shù)學(xué)推理大模型

    MathOctopus在多語言數(shù)學(xué)推理任務(wù)中,表現(xiàn)出了強(qiáng)大的性能。MathOctopus-7B 可以將LLmMA2-7B在MGSM不同語言上的平均表現(xiàn)從22.6%提升到40.0%。更進(jìn)一步,MathOctopus-13B也獲得了
    發(fā)表于 11-08 10:37 ?379次閱讀
    基于LLaMA的<b class='flag-5'>多語言</b>數(shù)學(xué)推理大模型