0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

建立一個源于StackExchange的新數(shù)據(jù)集

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-06-30 09:26 ? 次閱讀

ACL、EMNLP、NAACL和COLING是NLP領(lǐng)域的四大國際頂會,其中ACL(Annual Meeting of the Association for Computational Linguistics)一直以受關(guān)注度更廣、論文投遞數(shù)量多著稱。7月15日至20日,第56屆年度ACL會議將在澳大利亞墨爾本舉辦,辛苦碼論文的你,準(zhǔn)備好了嗎?

作為頂會,評選“最佳論文”和“終身成就獎”幾乎已經(jīng)是一項(xiàng)“標(biāo)配”,ACL也不例外。往年會議通常會在正會上宣布獲獎?wù)撐?嘉賓,但今年主辦單位計(jì)算語言學(xué)協(xié)會卻一反常態(tài),在會議前一個月就提前放出了“最佳論文”的評選結(jié)果——三篇“最佳長論文”和兩篇“最佳短論文”。

Best Long Papers

Best Short Papers

雖然Finding syntax in human encephalography with beam search(用集束搜索在人體腦電圖中尋找語法)這篇論文從標(biāo)題上看起來似乎更具吸引力,但考慮到這5篇論文中只公開了2、3兩篇長論文,因此論智在這里只能簡要介紹這兩篇的內(nèi)容。如果讀者有條件看到會場海報(bào),歡迎隨時分享。

論文2:Learning to Ask Good Questions

詢問是溝通的基礎(chǔ),如果一臺機(jī)器連提問都不會,那它也絕對做不到高效地和人類溝通。在日常交流中,提問的主要目標(biāo)是進(jìn)一步澄清問題,填補(bǔ)信息空白,如當(dāng)用戶在論壇上向機(jī)器人詢問Ubuntu操作系統(tǒng)使用問題時,為了篩選原因,機(jī)器人會根據(jù)條件產(chǎn)生幾個提問選項(xiàng):

(a) 您的系統(tǒng)是哪個版本的?

(b) 您的無線網(wǎng)卡有哪些功能?

(c) 您是在64位操作系統(tǒng)上運(yùn)行的嗎?

在這種情況下,機(jī)器人不該問(b),因?yàn)檫@是個無效問題;它也不該選(c),因?yàn)檫@個問題的答案面太狹窄了,如果用戶的回復(fù)是“不是”“不知道”,這也成了個無效問題。所以這三個選項(xiàng)中唯一符合人類風(fēng)格的只有(a)。

本文主要做了兩方面工作,一是構(gòu)建了一個新型神經(jīng)網(wǎng)絡(luò)模型,它能基于獲得完美信息的期望值為問題排序;二是建立了一個源于StackExchange的新數(shù)據(jù)集,它是模型的學(xué)習(xí)基礎(chǔ)。

新型神經(jīng)網(wǎng)絡(luò)模型

這個神經(jīng)模型的靈感來自完全信息期望值(EVPI),即擁有此隨機(jī)事件的完全信息時的最大期望值與未擁有此隨機(jī)事件完全信息時的最大期望值之差。當(dāng)然這里不用算最大,通俗來講,本文關(guān)注的是如果我們對Ubuntu操作問題有一個已知信息X,那X的用處到底有多大?

因?yàn)楝F(xiàn)在沒有這個X,所以我們要先找出所有可能的X,并根據(jù)似然值加權(quán)計(jì)算。在提問場景中,對于模型的給定問題qi(前提是能回答),用戶可能有A個可能的回答;對于每個可能的回答aj∈A,模型有概率從中抽取信息,能為得出最終答案提供作用。因此qi的期望值是:

其中,

p是用戶發(fā)表的提問帖;

qi是候選問題集Q中的一個可能的問題;

aj是針對Q的候選回答集A里的一個答案;

P[aj|p, qi]計(jì)算了對于帖子p和提問qi,模型獲得回答aj的概率;

U(p+aj)是微觀經(jīng)濟(jì)學(xué)中常見的效用函數(shù),用來描述獲得答案aj后,它對帖子p的信息補(bǔ)充程度;

下圖展示了模型在測試期間的邏輯:

給定一個帖子p,模型先檢索10個類似p的帖子,并生成相應(yīng)的問題集Q和答案集A。然后輸入p和提問qi,獲得神經(jīng)網(wǎng)絡(luò)的輸出,也就是回答表征F(p, qi),計(jì)算P[aj|F(p, qi)]和P[aj|p, qi]的接近程度。之后,用U(p+aj)計(jì)算把回答改成aj后,p的信息補(bǔ)充提升效果。最后,再根據(jù)這個期望效果對問題集Q里的問題一一排序。

看到這里,這個模型要解決的問題就只剩下兩個了:

概率分布P[aj|p, qi];

效用函數(shù)U(p+aj)。

那么它們背后的原理是什么呢?考慮到篇幅有限,小編這里不再展開介紹了,如果好奇,請大家去讀原文——結(jié)構(gòu)清晰美觀,強(qiáng)烈推薦。

新數(shù)據(jù)集

關(guān)于這個數(shù)據(jù)集,內(nèi)容不多。它的原型是StackExchange上的評論數(shù)據(jù),共77,097條內(nèi)容。論文作者圍繞【帖子】【問題】【答案】三個內(nèi)容創(chuàng)建了一個數(shù)據(jù)集,其中帖子都是未經(jīng)編輯的原帖,問題是包含問題的評論,答案是作者對帖子的修改和他對其他留言的評論。

實(shí)驗(yàn)結(jié)果

從上圖數(shù)據(jù)可以看出,論文提出的EVPI模型表現(xiàn)不錯,它在問題生成任務(wù)上非常有前景,能切實(shí)幫助機(jī)器人在論壇上寫出高質(zhì)量回復(fù)。

論文地址:arxiv.org/pdf/1805.04655.pdf

論文3:Let’s do it “again”

這同樣是一篇有趣的論文,它在2010年Layth Muthana Khaleel那篇An Analysis of Presupposition Triggers in English Journalistic Texts的基礎(chǔ)上再次研究了語用學(xué)中的“預(yù)設(shè)”(Presupposition)問題。

什么是語用預(yù)設(shè)?

預(yù)設(shè)一詞來自英國著名哲學(xué)家Strawson的《邏輯理論導(dǎo)論》:“一個命題S預(yù)設(shè)P,而且僅當(dāng)P是S有真值或價值的必要條件?!痹谡Z用學(xué)中,預(yù)設(shè)指的是參與對話者在言語交流時都已經(jīng)知道的信息和假設(shè),同時這些共知信息無需被說出來。它在日常自然對話中隨處可見,如:

(1) John is going to the restaurant again.

(2) John has been to the restaurant.

在這個例子中,因?yàn)榇嬖谝粋€“again”,所以只有當(dāng)(2)為真時,(1)的表述才是合理的。表示因?yàn)镴ohn之前去過一次飯店,所以他能“再”去一次。語用預(yù)設(shè)和語義預(yù)設(shè)不同,其中最明顯的是它不會因在句子中添加否定而改變,如John is not going to the restaurant again,(2)同樣是這句話的預(yù)設(shè)。

我們把像“again”這樣表示預(yù)設(shè)存在的表達(dá)稱為預(yù)設(shè)觸發(fā)語,它可以是實(shí)際的副詞、動詞,也可以是一段明確的表述。而本文的研究內(nèi)容則是一個可以檢測狀語預(yù)設(shè)觸發(fā)語的模型。

新數(shù)據(jù)集

為了訓(xùn)練模型,論文作者也自制了數(shù)據(jù)集。他們從Penn Treebank(PTB)和English Gigaword第三版子集這兩個語料庫里提取數(shù)據(jù),其中PTB里的22、23兩章和Gigaword里的700-760章是測試集,剩余數(shù)據(jù)里的90%是訓(xùn)練集,最后的10%則被用來提升模型。

對于每個數(shù)據(jù)集,他們的關(guān)注目標(biāo)是這5個副詞:too、again、also、still和yet。由于它們在英語中一般就充當(dāng)預(yù)設(shè)觸發(fā)語,這就相當(dāng)于整個學(xué)習(xí)問題被簡化成了副詞預(yù)設(shè)觸發(fā)語是否存在——一個二元分類問題。他們把包含這些副詞的句子標(biāo)記為positive,不包含的則是negative。

學(xué)習(xí)模型

這是一個引入了注意力機(jī)制的模型,從某種程度上來說,它擴(kuò)展了雙向LSTM模型,通過計(jì)算每個時間步的隱藏狀態(tài)之間的相關(guān)性,在這些相關(guān)性上應(yīng)用注意力機(jī)制。

下圖是論文提出的加權(quán)池化(WP)神經(jīng)網(wǎng)絡(luò)架構(gòu):

模型輸入序列u = {u1, u2,..., uT}在數(shù)據(jù)集原始序列基礎(chǔ)上經(jīng)過one-hot編碼而來,時間步長為T;

輸入網(wǎng)絡(luò)后,序列中的每個單詞ut會嵌入預(yù)訓(xùn)練的嵌入矩陣We∈R|V|×d,其中V表示數(shù)據(jù)集V中的單詞數(shù),d則是嵌入空間大小;

嵌入后所得的單詞向量xt∈Rd可以簡單地用xt= utWe來表示,其中,因?yàn)閤t可能還包含單詞的詞性標(biāo)注,所以其實(shí)這個等式還應(yīng)該加上經(jīng)one-hot編碼的詞性標(biāo)注pt:xt= utWe||pt(||:向量級聯(lián)運(yùn)算符)。

我們獲得了雙向LSTM的輸入,之后用LSTM進(jìn)行編碼;

將編碼饋送進(jìn)注意力機(jī)制,計(jì)算出注意力權(quán)重后,對編碼狀態(tài)進(jìn)行加權(quán)平均;

將輸出依次連接到全連接層,預(yù)測狀語預(yù)設(shè)觸發(fā)語。

(上述過程中的雙向LSTM和注意力機(jī)制運(yùn)算非常常規(guī),請看原文)

實(shí)驗(yàn)結(jié)果

從結(jié)果上看他們的模型還是不錯的,但考慮到我們使用的是中文,語用預(yù)設(shè)更加復(fù)雜,英語語境下的這種二元分類方法可能并不適用,但這也為其他語言研究提供了一個比較可行的思路。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:ACL 2018:最佳論文評選結(jié)果提前出爐

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    建立開發(fā)和測試(總結(jié))

    ? 被選擇作為開發(fā)和測試數(shù)據(jù),應(yīng)當(dāng)與你未來計(jì)劃獲取并對其進(jìn)行良好處理的數(shù)據(jù)有著相同的分布,而不定和訓(xùn)練
    發(fā)表于 12-14 10:56

    PTB數(shù)據(jù)建立語言模型

    《實(shí)戰(zhàn)Google深度學(xué)習(xí)框架》之RNN學(xué)習(xí)筆記2 LSTM對PTB數(shù)據(jù)的建模
    發(fā)表于 09-26 16:21

    怎么建立驅(qū)動為SQL D 的數(shù)據(jù)源?

    怎么建立驅(qū)動為SQL D 的數(shù)據(jù)
    發(fā)表于 12-09 14:46

    benchmark實(shí)現(xiàn)大規(guī)模數(shù)據(jù)上的OOD檢測

    評價算法的性能。為此,這份工作建立了新的benchmark,在ImageNet-1k級別的數(shù)據(jù)上設(shè)立了全新的benchmark。并提出
    發(fā)表于 08-31 15:11

    中國建立自主可控技術(shù)體系的機(jī)遇

    不久前,MIPS公司宣布開源,MIPS指令向全球客戶免費(fèi)授權(quán)。MIPS此舉意味著,從此之后,全球任何家IC設(shè)計(jì)公司可以免費(fèi)使用MIPS指令,大家基于MIPS指令設(shè)計(jì)CPU不存在
    的頭像 發(fā)表于 01-06 10:51 ?2874次閱讀
    中國<b class='flag-5'>建立</b>自主可控技術(shù)體系的<b class='flag-5'>一</b><b class='flag-5'>個</b>機(jī)遇

    完整的MNIST測試,其中包含60000測試樣本

    NIST手寫字符的第部分已經(jīng)在年前發(fā)布,它是由2000名人口普查局員工手寫的訓(xùn)練和5
    的頭像 發(fā)表于 06-02 09:43 ?6004次閱讀

    Facebook AI發(fā)布了包含編碼問題和代碼片段答案的數(shù)據(jù)

    我們的數(shù)據(jù)不僅是當(dāng)前可用于Java的最大數(shù)據(jù),而且還是唯以自動化(致)方式針對Stack
    的頭像 發(fā)表于 03-22 16:53 ?1855次閱讀

    數(shù)據(jù)科學(xué)平臺cnvrg.io攜手NetApp用深度學(xué)習(xí)改變MLOps數(shù)據(jù)緩存

    中國存儲網(wǎng)消息,近日,數(shù)據(jù)科學(xué)平臺cnvrg.io簡化了模型管理并將MLOps引入行業(yè),它宣布與NetApp公司。建立合作關(guān)系,這是第一個利用cnvrg.io數(shù)據(jù)
    發(fā)表于 07-20 09:09 ?2042次閱讀

    GitHub上開源了眾多數(shù)據(jù)源于一身的爬蟲工具箱——InfoSpider

    InfoSpider 是眾多數(shù)據(jù)源于一身的爬蟲工具箱,旨在安全快捷的幫助用戶拿回自己的數(shù)據(jù),工具代碼開源,流程透明。并提供
    的頭像 發(fā)表于 11-23 11:28 ?1874次閱讀

    如何用PHP做一個機(jī)器學(xué)習(xí)數(shù)據(jù)

    機(jī)器學(xué)習(xí)是門通過數(shù)據(jù)來教計(jì)算機(jī)解決問題的科學(xué),而不是編寫序列算法,讓指令逐個執(zhí)行。 般來說,數(shù)據(jù)準(zhǔn)備是機(jī)器學(xué)習(xí)的首要任務(wù),通常包括兩個子步驟:創(chuàng)建
    的頭像 發(fā)表于 08-25 11:09 ?1698次閱讀

    建立計(jì)算模型來預(yù)測給定博文的抱怨強(qiáng)度

    在計(jì)算語言學(xué)中,先前的研究主要集中在建立自動分類模型來識別抱怨是否存在。Jin提供了個數(shù)據(jù),基于語用學(xué)注釋了不同嚴(yán)重程度的抱怨博文
    的頭像 發(fā)表于 11-08 09:54 ?550次閱讀

    SAS:?數(shù)據(jù)的橫向合并()

    在橫向合并中,當(dāng)兩或更多的SAS數(shù)據(jù)沒有相同的變量時,此時合并數(shù)據(jù)的變量均會展示在數(shù)據(jù)集中
    的頭像 發(fā)表于 05-19 10:44 ?4159次閱讀
    SAS:?<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>的橫向合并(<b class='flag-5'>一</b>)

    最全自動駕駛數(shù)據(jù)分享系列:目標(biāo)檢測數(shù)據(jù)

    自動駕駛數(shù)據(jù)分享是整數(shù)智能推出的全新分享系列,在這個系列中,我們將介紹目前為止各大科研機(jī)構(gòu)和企業(yè)推出的所有公開自動駕駛數(shù)據(jù)
    發(fā)表于 06-06 11:15 ?2次下載
    最全自動駕駛<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>分享系列<b class='flag-5'>一</b>:目標(biāo)檢測<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>

    建立網(wǎng)狀連接的家庭項(xiàng)目

    電子發(fā)燒友網(wǎng)站提供《建立網(wǎng)狀連接的家庭項(xiàng)目.zip》資料免費(fèi)下載
    發(fā)表于 06-30 11:18 ?0次下載
    <b class='flag-5'>建立</b><b class='flag-5'>一</b><b class='flag-5'>個</b>網(wǎng)狀連接的家庭項(xiàng)目

    建立神經(jīng)網(wǎng)絡(luò)模型的三步驟

    建立神經(jīng)網(wǎng)絡(luò)模型是復(fù)雜的過程,涉及到多個步驟和細(xì)節(jié)。以下是對建立神經(jīng)網(wǎng)絡(luò)模型的三主要步驟的介紹: 第
    的頭像 發(fā)表于 07-02 11:20 ?326次閱讀