文本生成模型已成為文本輸入方法(如聯(lián)想詞、語(yǔ)言檢查等)的重要技術(shù)支撐。然而,近期的一些生成模型(例如chatGPT和Galactica)能夠同時(shí)處理語(yǔ)言上和內(nèi)容上的問(wèn)題,也就是說(shuō)它們能夠處理和生成足夠長(zhǎng)的文本內(nèi)容,使之看起來(lái)像是用戶自己的創(chuàng)作內(nèi)容。這項(xiàng)技術(shù)進(jìn)展促使學(xué)校、期刊、會(huì)議(例如ICML)去進(jìn)一步更新作者署名政策。
由于這些工具來(lái)自我們自己的領(lǐng)域(NLP),所以我們是處理和解決這些潛在問(wèn)題的最適合的群體,這包括模型輸出中的錯(cuò)誤和模型訓(xùn)練數(shù)據(jù)源的抄襲問(wèn)題。在會(huì)議中,審稿人志愿獻(xiàn)出他們的時(shí)間來(lái)審稿,所以他們并不想額外花更多的時(shí)間去檢查上述問(wèn)題。此外,還有關(guān)于作者署名的問(wèn)題:ACL通常希望稿件內(nèi)容是署名作者以及承認(rèn)貢獻(xiàn)者的原創(chuàng)、未發(fā)表的工作。根據(jù)ACM抄襲定義,它不僅包括對(duì)他人作品的直接或近似復(fù)制,還包括故意復(fù)述他人作品的部分內(nèi)容。
在與ACL執(zhí)行委員會(huì)協(xié)商之后,ACL 2023在NAACL 2022的Resposible NLP Checklist基礎(chǔ)上進(jìn)一步添加了有關(guān)使用寫(xiě)作助手的問(wèn)題。如果作者以任何方式使用了這些工具,作者必須詳細(xì)說(shuō)明使用的范圍和性質(zhì)。與其他關(guān)于提供代碼、數(shù)據(jù)、補(bǔ)償參與者以及獲得IRB許可類似,這些問(wèn)題并不是為了進(jìn)行自動(dòng)拒稿。
與其他問(wèn)題一樣,這些問(wèn)題的目的是讓作者反思和建立研究規(guī)范。作者對(duì)清單中所有問(wèn)題的回答都將會(huì)披露給審稿人,審稿人隨后可根據(jù)相關(guān)信息進(jìn)行倫理審查。為了進(jìn)一步提高NLP研究對(duì)于公眾的透明度,對(duì)于今年被錄用的論文,在公開(kāi)論文時(shí)將同時(shí)公開(kāi)Responsible NLP Checklist(作為附錄)。這與Nature期刊中的Reporting Summary相似。
LV1:純粹用于論文的語(yǔ)言輔助
當(dāng)生成模型用于重新表述或潤(rùn)色作者的原始內(nèi)容,而不是為了提出新內(nèi)容時(shí),它們類似于Grammarly、拼寫(xiě)檢查器、字典和同義詞典等工具,多年來(lái)一直被完全接受。如果作者的語(yǔ)言水平不夠流利,以至于無(wú)法注意到生成的內(nèi)容與他們的預(yù)期不符,那么與其使用這些工具而不進(jìn)行檢查,倒不如直接使用簡(jiǎn)單準(zhǔn)確的語(yǔ)言去敘述。使用像Grammarly或者拼寫(xiě)檢查器這樣只協(xié)助語(yǔ)言表述的工具是不需要顯式說(shuō)明的。
LV2:簡(jiǎn)短的輸入?yún)f(xié)助
即使輸入法中的聯(lián)想詞或者像谷歌文檔中的智能編寫(xiě)功能同樣是由生成式語(yǔ)言模型驅(qū)動(dòng)的,但沒(méi)有人反對(duì)使用它們。因?yàn)閹缀鯖](méi)有人會(huì)嘗試用它們來(lái)生成非常長(zhǎng)、獨(dú)特且連貫的文本,因?yàn)檫@種方式生成出來(lái)的文本根本不具備實(shí)用價(jià)值。與上面使用語(yǔ)言輔助工具類似,在回答該類工具相關(guān)問(wèn)題時(shí),不需要進(jìn)行顯式說(shuō)明。
LV3:文獻(xiàn)檢索??
文本生成模型可能被用作搜索助手,例如查找相關(guān)文獻(xiàn)。然而,我們希望作者閱讀和討論這些參考文獻(xiàn),就像通過(guò)常規(guī)搜索引擎或語(yǔ)義文獻(xiàn)推薦工具識(shí)別的參考文獻(xiàn)一樣。作者要注意引用的準(zhǔn)確性和文獻(xiàn)綜述的全面性,并且要注意推薦引用中可能存在的偏差問(wèn)題。
LV4:低創(chuàng)新性文本
有些作者可能認(rèn)為描述廣為人知的概念是浪費(fèi)時(shí)間,可以通過(guò)自動(dòng)化的方法完成。在這種情況下,作者應(yīng)該說(shuō)明使用了這種文本的位置,并說(shuō)服審稿人他們檢查了生成文本的準(zhǔn)確性,并附有相關(guān)和適當(dāng)?shù)囊茫ɡ?,使用塊引用以表示復(fù)制原文)。如果生成的文本是直接從現(xiàn)有工作復(fù)制的文本,作者需要合理地進(jìn)行引用:這既是文本的來(lái)源也是思想的來(lái)源。
LV5:新思路
如果模型輸出了新的研究思想,那么它們應(yīng)該獲得該項(xiàng)工作的共同作者或致謝。如果作者在這基礎(chǔ)之上發(fā)展了這些理念(例如,討論的主題、問(wèn)題的框架),我們建議聲明使用了這些模型,并檢查這些思路的已知來(lái)源以聲明和引用它們,這是因?yàn)楹苡锌赡苓@些思想來(lái)自其他人的工作。
LV6:新思路+新文本
我們認(rèn)為同時(shí)提供思想和執(zhí)行的貢獻(xiàn)者符合共同作者的定義,而模型不能成為共同作者。雖然業(yè)界正在建立關(guān)于使用生成式AI的相關(guān)規(guī)范,我們不鼓勵(lì)在ACL稿件中使用這種方法。如果你堅(jiān)持認(rèn)為這是合理的,你可以向?qū)徃迦俗C明這種操作的合理性,并且保證新內(nèi)容的正確性、連貫性和原創(chuàng)性,并且沒(méi)有漏引相關(guān)文獻(xiàn)。需要注意的是,ICML同行指出:目前誰(shuí)應(yīng)該享有生成文本的相關(guān)權(quán)利是尚不清晰的,是模型的開(kāi)發(fā)者,訓(xùn)練數(shù)據(jù)的原作者,還是生成文本的用戶。
Extra:能用生成模型輔助寫(xiě)代碼嗎?
另外一個(gè)獨(dú)立但相關(guān)的問(wèn)題是借助生成模型寫(xiě)代碼。ACL稿件可以附帶源代碼(被視為補(bǔ)充材料),審稿人不會(huì)被強(qiáng)制審閱這些材料,可以根據(jù)自己的需要去查看。使用代碼助手(例如Copilot)也是一種新興寫(xiě)代碼的方式,并且相關(guān)準(zhǔn)則還沒(méi)有完全建立起來(lái)。當(dāng)下,我們要求作者明確指出使用這些助手的范圍,例如在README文件中進(jìn)行備注。
我們還要求作者去檢查是否存在潛在的抄襲風(fēng)險(xiǎn)。需要注意的是Copilot現(xiàn)在正存在一項(xiàng)關(guān)于盜版的訴訟,并且可能向你推薦了不符合許可證的代碼片段。代碼助手的使用并不能免除作者確保其方法和結(jié)果正確性的要求。
關(guān)于AI輔助寫(xiě)作:
1、僅用于語(yǔ)法糾錯(cuò)、語(yǔ)言潤(rùn)色為目的時(shí)無(wú)需聲明。
2、用于經(jīng)典概念的描述、文獻(xiàn)檢索、提供新思路方面需要聲明使用范圍,且要確保相關(guān)表述是否來(lái)源于已有工作,注意相關(guān)引用。
3、ACL不鼓勵(lì)完全使用AI助手生成新思路和新文本。?
4、使用AI輔助生成代碼,需要在代碼描述文件中指出使用范圍。
審核編輯:劉清
-
ACL
+關(guān)注
關(guān)注
0文章
61瀏覽量
11956 -
nlp
+關(guān)注
關(guān)注
1文章
484瀏覽量
21987 -
ChatGPT
+關(guān)注
關(guān)注
29文章
1546瀏覽量
7358
原文標(biāo)題:ACL2023論文寫(xiě)作能否使用ChatGPT?
文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論