0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

LLM時(shí)代NLP研究何去何從?

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 2023-06-02 15:52 ? 次閱讀

前言

最近,大語言模型(LLMs)在許多任務(wù)上表現(xiàn)出接近人類水平的性能,這引發(fā)了行業(yè)興趣和資金投入的激增,有關(guān)LLMs的論文最近也層出不窮。

看起來,NLP領(lǐng)域似乎已被LLMs占滿,這讓一些研究者感到無所適從,尤其是那些剛?cè)胄械牟┦可鷤?,他們可能會認(rèn)為,“LLMs似乎已經(jīng)解決了所有NLP的子任務(wù)!那我還能做些什么呢?”

事實(shí)上,NLP不僅僅是LLMs。NLP的應(yīng)用遠(yuǎn)比簡單地預(yù)測下一個(gè)詞要廣泛得多。此外,LLMs的訓(xùn)練需要大量數(shù)據(jù)和計(jì)算資源,這對于大多數(shù)研究者來說難以承擔(dān)。

這篇論文是由美國某NLP研究實(shí)驗(yàn)室的成員撰寫的,旨在探討LLM時(shí)代NLP研究的未來。這些成員圍繞一個(gè)問題進(jìn)行了頭腦風(fēng)暴:除了LLMs的開發(fā)外,還有哪些有趣的、不依賴于付費(fèi)資源的研究領(lǐng)域適合作為博士論文的研究方向。(劇透一下:還有很多這樣的研究領(lǐng)域?。?/p>

下面我們來介紹一下文中所提到的一些適合研究的有趣方向。

論文:A PhD Student’s Perspective on Research in NLP in the Era of Very Large Language Models
地址:https://arxiv.org/pdf/2305.12544.pdf
項(xiàng)目:https://bit.ly/nlp-era-llm

多語言模型/處理低資源語言

多語言模型是能夠處理多種語言的模型,但開發(fā)多語言模型中,如何利用低資源語言仍然是一個(gè)主要挑戰(zhàn)。因?yàn)榈唾Y源語言的訓(xùn)練數(shù)據(jù)有限。目前的方法包括數(shù)據(jù)增強(qiáng)、并行語料庫挖掘和光學(xué)字符識別(OCR)等。

然而,最先進(jìn)的機(jī)器翻譯模型(如NLLB-200)在許多低資源語言(如非洲語言)上仍然表現(xiàn)較差。即使是ChatGPT在馬拉地語、巽他語和商務(wù)語等低資源語言上的翻譯效果也很差。此外,ChatGPT在低資源語言到英語的翻譯中表現(xiàn)相當(dāng)好,但在英語到低資源語言的翻譯中表現(xiàn)不佳。

研究方向

在當(dāng)前低資源的語言基準(zhǔn)上(如FLORES-200)改進(jìn)機(jī)器翻譯性能。針對資源極低的語言,可以利用圣經(jīng)(世界上翻譯最多的文檔)等現(xiàn)有文本作為開發(fā)機(jī)器翻譯系統(tǒng)的起點(diǎn)。此外,手動創(chuàng)建平行語料庫和利用構(gòu)詞法模型開發(fā)翻譯詞典等方法也是重要的研究路徑。

提高適用于所有語言的多語言模型的性能。目前的多語言模型在各種語言上的表現(xiàn)不一致,需要進(jìn)一步探索多語言模型需要的數(shù)據(jù)量以及在哪種語言組合上能夠?qū)崿F(xiàn)相似的性能。此外,通過cross-lingual projection和利用現(xiàn)有的機(jī)器翻譯系統(tǒng),將模型架構(gòu)轉(zhuǎn)移到其他語言也是一個(gè)研究方向。

Code-switching。Code-switching是指說話者在不同語言之間切換的現(xiàn)象,這種訓(xùn)練數(shù)據(jù)很難獲得。目前的研究重點(diǎn)包括LLMs是否可以生成這類數(shù)據(jù),探索LLMs在不同語言組合上的泛化能力以及在區(qū)分高度相似語言(如同一母語下的不同方言)上的學(xué)習(xí)能力。

LLMs的推理能力

NLP中的推理對于問答、閱讀理解和對話系統(tǒng)等任務(wù)至關(guān)重要,因?yàn)樗梢栽鰪?qiáng)模型在未知場景中的泛化能力。從基于規(guī)則和符號的方法到概率模型和機(jī)器學(xué)習(xí)算法的統(tǒng)計(jì)方法,NLP研究經(jīng)歷了巨大變化。近年來,深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)徹底改變了這一領(lǐng)域,在各任務(wù)上取得了先進(jìn)性能。然而,要實(shí)現(xiàn)類似人類的推理和泛化能力仍面臨挑戰(zhàn)。

研究方向

穩(wěn)健的形式推理。形式推理一直是一個(gè)具有挑戰(zhàn)性的任務(wù),LLMs遠(yuǎn)未完全掌握數(shù)值推理等形式推理、邏輯推理和因果推理任務(wù)。為此,研究人員致力于探索結(jié)合神經(jīng)網(wǎng)絡(luò)和符號人工智能的優(yōu)勢,例如通過集成計(jì)算器、python程序、數(shù)據(jù)庫知識檢索或搜索引擎,提升模型在形式推理方面的準(zhǔn)確性和魯棒性。

在現(xiàn)實(shí)世界中的推理。由于NLP模型的訓(xùn)練主要依賴于與文本世界的交互,因此在推理過程中缺乏現(xiàn)實(shí)世界經(jīng)驗(yàn)的基礎(chǔ)。這可能導(dǎo)致模型在生成響應(yīng)時(shí)缺乏實(shí)際可行性或考慮不到現(xiàn)實(shí)約束。為了解決這一問題,研究人員正在探索整合外部知識來源、多模態(tài)數(shù)據(jù)或模擬現(xiàn)實(shí)世界場景的方法,以提升模型的推理能力。

社會環(huán)境中的負(fù)責(zé)任推理。模型將需要做出復(fù)雜的決策,其中包括道德推理。例如,在創(chuàng)建網(wǎng)站時(shí),可能需要考慮一些道德選擇,如迎合特定的亞群體,或過度優(yōu)化用戶注意力或點(diǎn)擊率。在理解或提高AI系統(tǒng)在不同社會背景和文化背景下對社會復(fù)雜和道德相關(guān)的場景進(jìn)行推理的能力方面,還有很多需要研究的地方。

正式定義推理,設(shè)計(jì)合適的評價(jià)框架。當(dāng)前的挑戰(zhàn)之一是,如何定義LLMs的推理?當(dāng)模型記住一個(gè)推理模式時(shí),我們應(yīng)該將其視為推理技能還是對知識的掌握?除此之外,我們還面臨著如何測試模型推理能力的問題。數(shù)據(jù)污染、古德哈特定律(一旦數(shù)據(jù)集被利用就無法反映技能)以及缺乏可靠的評估指標(biāo)來評估多步推理等問題仍待解決。

提示如何幫助推理?有兩種類型的提示對于提升推理能力非常有價(jià)值:in-context learning和思維鏈(CoT)。然而,LLMs到底是在進(jìn)行真正的推理,還是僅僅生成統(tǒng)計(jì)上相似的序列,以及AI系統(tǒng)在多大程度上可以從幾個(gè)示例中學(xué)習(xí)推理,這些問題仍存在爭議。

知識庫

知識庫從現(xiàn)實(shí)世界抽象出概念、實(shí)體及其關(guān)系,在許多應(yīng)用中發(fā)揮著重要作用,例如關(guān)系提取和機(jī)器閱讀。當(dāng)前的LLMs在內(nèi)部知識方面仍存在局限性。無論是一般知識、特定領(lǐng)域知識都存在限制。此外,LLMs經(jīng)常會出現(xiàn)幻覺,根據(jù)錯(cuò)誤的事實(shí)提出主張。雖然基于人類反饋的強(qiáng)化學(xué)習(xí)(RLHF)可以減輕這個(gè)問題,但幻覺問題仍然是模型固有的。通過結(jié)合知識庫改進(jìn)模型的輸出,可以減少幻覺,使用戶更容易驗(yàn)證主張的正確性。

研究方向

Knowledge-guided LLM。為了解決幻覺問題,可以將經(jīng)過驗(yàn)證的知識與LLMs的回復(fù)進(jìn)行結(jié)合。已經(jīng)有研究人員嘗試使用DialogGPT等系統(tǒng)來檢索或生成知識,以增強(qiáng)生成的回應(yīng)。Bing等搜索引擎也會在回答問題之前進(jìn)行網(wǎng)絡(luò)查詢。然而,如何有效地與定制的外部知識庫進(jìn)行交互仍然是一個(gè)待解決的問題。

自動構(gòu)建知識庫。許多應(yīng)用程序可以從專門的知識庫中受益。自動構(gòu)建這類知識庫是一個(gè)有趣的研究方向,但也面臨著許多挑戰(zhàn),如知識覆蓋范圍、知識真實(shí)性、知識鏈接等。在構(gòu)建醫(yī)療保健或化學(xué)等專業(yè)領(lǐng)域的知識庫時(shí),這些挑戰(zhàn)會更加突出。然而,一旦這些問題得到解決,研究人員將能夠利用LLMs動態(tài)地管理來自最新原始文本和復(fù)雜應(yīng)用本體的知識庫,例如跟蹤來自PubMed文章的藥物相互作用。

一般和文化常識。NLP模型中可用的文化知識通常僅限于少數(shù)西方文化,無法涵蓋世界文化觀點(diǎn)的多樣性。隨著NLP應(yīng)用的廣泛傳播,這種限制可能直接影響用戶,因?yàn)樗鼪]有考慮到用戶的價(jià)值觀、信仰和世界觀。此外一個(gè)主要的開放研究方向是如何獲取和表達(dá)編碼這些文化觀點(diǎn)的知識,以及何時(shí)和如何調(diào)用這些文化知識。

Language Grounding

Language Grounding是語言與世界(可以是物理的或非物理的)的事物或經(jīng)驗(yàn)聯(lián)系起來的能力,如TextWorld等文字游戲。該領(lǐng)域的探索主要利用多模態(tài)數(shù)據(jù)構(gòu)建數(shù)據(jù)集和任務(wù)。視覺問答、圖像和視頻字幕、文本到圖像檢索以及文本到圖像/視頻生成等流行任務(wù)已經(jīng)取得了重要進(jìn)展。越來越多的多模態(tài)模型(如GPT-4)不斷擴(kuò)大其訓(xùn)練語料庫,并增加音頻等多樣輸入的支持。

盡管GPT-4展示了令人印象深刻的zero-shot性能,超越了大多數(shù)微調(diào)但規(guī)模較小的多模態(tài)模型,但它們也存在一些成本與限制。首先,它們?nèi)狈κ澜绲恼嬲斫猓瑹o法具備領(lǐng)域知識,在現(xiàn)實(shí)生活中的應(yīng)用有一定局限性。其次,這些模型往往難以解釋,我們難以理解其生成新數(shù)據(jù)時(shí)的不可靠行為,如幻覺問題。最后,由于昂貴的計(jì)算資源需求,只有少數(shù)大學(xué)和機(jī)構(gòu)能夠負(fù)擔(dān)得起適當(dāng)使用這些模型。

研究方向

有效結(jié)合多種模態(tài)。如何最佳地整合音頻、視頻、文本等不同模態(tài)仍然是一個(gè)待解決的問題。不同模態(tài)通常相互補(bǔ)充(例如,手勢可以輔助口頭表達(dá)),從而減少對大量數(shù)據(jù)的依賴。然而,在某些情況下,不同模態(tài)可能會相互競爭,一些研究表明,在特定情況下單模態(tài)模型優(yōu)于多模態(tài)模型。

較少研究的模態(tài)。大部分研究都集中在視覺、文本或音頻模態(tài)上。然而,在Language Grounding的背景下,較少研究的模態(tài),如生理、感覺或行為,對于多種應(yīng)用具有重要價(jià)值,例如測量駕駛員的警覺性、抑郁檢測或欺騙行為檢測。

在現(xiàn)實(shí)世界和不同領(lǐng)域中的應(yīng)用。大部分研究都基于在實(shí)驗(yàn)室環(huán)境中收集的數(shù)據(jù),或者基于室內(nèi)活動(如電影或烹飪)的圖像和視頻數(shù)據(jù)。在現(xiàn)實(shí)世界和戶外環(huán)境中Grounding的研究相對較少。此外,將這些模型應(yīng)用于不同領(lǐng)域(如機(jī)器人、醫(yī)學(xué)、導(dǎo)航、教育和可訪問性)需要適應(yīng)使用較少的數(shù)據(jù)點(diǎn)或不同類型的數(shù)據(jù),并結(jié)合領(lǐng)域?qū)I(yè)知識以更好地理解外部環(huán)境。

網(wǎng)絡(luò)環(huán)境中的NLP

網(wǎng)絡(luò)環(huán)境中的NLP可分為兩個(gè)對立的現(xiàn)象:內(nèi)容生成和審核。內(nèi)容的快速生成得到了廣泛支持,但也存在制造假新聞和虛假信息的風(fēng)險(xiǎn),需要及時(shí)審核和監(jiān)管。通過使用NLP來監(jiān)控和分析用戶生成的內(nèi)容,可以保持在線生態(tài)系統(tǒng)的平衡。

然而,內(nèi)容生成和審核仍然存在一些問題。在生成方面,需要識別潛在的惡意操縱。在審核方面,現(xiàn)有的審核模型仍然不夠透明、準(zhǔn)確、可問責(zé)和理解。此外,構(gòu)建用于檢測不需要的內(nèi)容的模型面臨分類困難、數(shù)據(jù)標(biāo)注耗時(shí)和學(xué)術(shù)數(shù)據(jù)集不足等挑戰(zhàn)。

研究方向

檢測和揭穿在線錯(cuò)誤信息。NLP系統(tǒng)可以幫助事實(shí)核查員減緩誤導(dǎo)性內(nèi)容的傳播。同時(shí),需要發(fā)展低資源和跨語言的NLP系統(tǒng)來幫助解決錯(cuò)誤信息問題。多模態(tài)處理和社交網(wǎng)絡(luò)分析(例如誰喜歡或轉(zhuǎn)發(fā)了該內(nèi)容)也可提高錯(cuò)誤信息檢測效果。

確保多樣化的代表性。隨著LLMs的普及,需要注意防止網(wǎng)絡(luò)上的聲音過度集中,特別是邊緣化群體的代表性。

避免過度審核。內(nèi)容審核技術(shù)應(yīng)考慮到不同群體和文化環(huán)境中的細(xì)微差異,以確保公平性。同時(shí),需要關(guān)注政府對在線討論話題的限制,維護(hù)言論自由。

識別生成內(nèi)容背后的涉眾。隨著機(jī)器生成內(nèi)容的增加,識別值得信任的信息將變得更加具有挑戰(zhàn)性。發(fā)展NLP模型以識別生成內(nèi)容背后的利益相關(guān)者及其利益類型,如商業(yè)利潤或政治利益,是一個(gè)有希望的方向。

兒童語言習(xí)得和LLM之間的聯(lián)系

兒童語言習(xí)得作為一個(gè)基線,在通往高效AGI的道路上具有重要意義。兒童通過有限的互動和觀察就能掌握多種語言,而不需要海量訓(xùn)練文本。研究探索LLMs與兒童語言習(xí)得之間的聯(lián)系,并借鑒統(tǒng)計(jì)學(xué)習(xí)的背景。這一領(lǐng)域的發(fā)展對于低資源和瀕危語言具有廣泛的影響。

然而,要實(shí)現(xiàn)這一研究還存在許多挑戰(zhàn),由于研究兒童的困難性,包括招募和倫理審查委員會對數(shù)據(jù)收集的限制。兒童無法有效地交流,往往只能獲得有限的數(shù)據(jù),這限制了實(shí)驗(yàn)的設(shè)計(jì)和數(shù)據(jù)的表達(dá)能力。在兒童語言研究中,通常需要父母的參與,以確保孩子專注于實(shí)驗(yàn)并遵循指導(dǎo)。此外,難以控制實(shí)驗(yàn)對象也導(dǎo)致難以控制混雜變量。

研究方向

樣本高效的語言學(xué)習(xí)。對樣本高效語言學(xué)習(xí)進(jìn)行基礎(chǔ)和理論研究,并開發(fā)更高效的NLP工具,是十分必要的。一個(gè)相關(guān)方向是設(shè)定樣本高效語言學(xué)習(xí)的基線,以推動數(shù)據(jù)效率方面的進(jìn)展。

兒童語言習(xí)得的基準(zhǔn)發(fā)展。簡化和擴(kuò)展子語言基準(zhǔn)的構(gòu)建,利用大型視頻數(shù)據(jù)集進(jìn)行控制實(shí)驗(yàn),培養(yǎng)專門為兒童學(xué)習(xí)語言設(shè)計(jì)的模型,以深入理解兒童語言使用和開發(fā)更有效學(xué)習(xí)模型的方式。

語言模型作為兒童語言習(xí)得的生物學(xué)模型。將NLP模型視為生物模型,探索人類嬰兒語言習(xí)得的理論。利用現(xiàn)有數(shù)據(jù)集和新的基準(zhǔn)以及強(qiáng)大的語言模型,進(jìn)行實(shí)驗(yàn)研究,分析語言習(xí)得過程,獲得關(guān)于兒童語言習(xí)得的新見解,如音位級習(xí)得和內(nèi)在獎勵(lì)機(jī)制等。

非語言交流

非語言交流是一種重要的人際交流形式,包括手勢、面部表情、肢體語言和姿勢等。最近的研究強(qiáng)調(diào)將非語言信息與語言表征相結(jié)合,以獲得更豐富的表征。理解非語言模式和語言之間的一致性仍然是一個(gè)未解決的問題,特別是考慮到這些模式的不同特點(diǎn)和解釋的挑戰(zhàn)。例如,在手語研究中,仍需解決許多問題,包括手語數(shù)據(jù)集的構(gòu)建和有效計(jì)算模型的開發(fā)。

研究方向

非語言信息的表征。非語言交際的多個(gè)子領(lǐng)域需要對非語言信息進(jìn)行表示、離散化和解釋的研究。需要找到適用于不同模式、上下文和文化的理想表征集,以實(shí)現(xiàn)面部表情和手勢的解釋并確保在不同模式下的一致性。

手語的理解、生成和翻譯。手語詞匯和語料庫的發(fā)展對于訓(xùn)練和評估計(jì)算模型至關(guān)重要。理解手語的挑戰(zhàn)包括手勢的高度可變性和其他非手動特征的影響,如面部表情、身體姿勢和眼睛注視。同時(shí),手語生成的研究旨在提高手語交流的流暢性和表達(dá)力,涉及同一手語使用者之間、使用不同手語的人以及口頭和手語同時(shí)存在的情況。

有效的語言和非語言溝通。在溝通過程中,語言和非語言信號都應(yīng)該被綜合考慮。建立能夠理解和解釋語言和非語言信號的聯(lián)合模型是AI輔助通信的長期目標(biāo)。研究問題包括語言模型的發(fā)展以及有效的融合方法,以實(shí)現(xiàn)同時(shí)進(jìn)行語言和非語言交流的大型聯(lián)合模型。

合成數(shù)據(jù)集

當(dāng)傳統(tǒng)的人類數(shù)據(jù)收集變得不可行、昂貴或存在隱私問題時(shí),在NLP研究中通常需要使用合成數(shù)據(jù)。隨著生成模型的發(fā)展,合成數(shù)據(jù)生成已經(jīng)在各個(gè)領(lǐng)域得到了廣泛應(yīng)用。例如,用于低資源語言的反向翻譯、語義解析、意圖分類、結(jié)構(gòu)化數(shù)據(jù)生成或醫(yī)學(xué)對話生成等方面都有相關(guān)的例子。如果需要在特定領(lǐng)域進(jìn)行適應(yīng),通常需要對模型進(jìn)行預(yù)訓(xùn)練,并通過提示模型生成數(shù)據(jù)集,然后使用自動或?qū)<因?yàn)證的方式評估生成數(shù)據(jù)集的質(zhì)量。

然而,使用合成數(shù)據(jù)也面臨一些挑戰(zhàn)。其中包括數(shù)據(jù)質(zhì)量控制困難(由于缺乏文本生成的評估指標(biāo))、缺乏多樣性、數(shù)據(jù)生成模型中存在的潛在偏差,以及數(shù)據(jù)生成模型固有的限制,例如難以捕捉遠(yuǎn)程依賴關(guān)系。

研究方向

知識蒸餾。研究如何將LLM的知識轉(zhuǎn)移到較小的模型中。這個(gè)任務(wù)可以通過將LLM的輸出用作合成示例來實(shí)現(xiàn),這種方法可以轉(zhuǎn)換或控制生成的數(shù)據(jù)的特性。研究者們還嘗試使用微調(diào)的模型來過濾質(zhì)量,并使用更小、更集中的模型來模擬LLM的行為(如Alpaca)。

控制生成的數(shù)據(jù)屬性。目前的方法是通過提供自然文本規(guī)范和示例來控制生成數(shù)據(jù)的屬性。然而,優(yōu)化這些提示通常是基于試錯(cuò),而且指定屬性可能不夠準(zhǔn)確或存在噪聲。因此,開發(fā)魯棒、可控和可復(fù)制的合成數(shù)據(jù)生成范式仍然是一個(gè)待解決的研究問題。

轉(zhuǎn)換現(xiàn)有的數(shù)據(jù)集。關(guān)注如何通過對現(xiàn)有數(shù)據(jù)集進(jìn)行各種修改來創(chuàng)建新的數(shù)據(jù)集,同時(shí)保持?jǐn)?shù)據(jù)的語義不變。常見的轉(zhuǎn)換方法包括格式更改、情態(tài)轉(zhuǎn)換和風(fēng)格轉(zhuǎn)換,以實(shí)現(xiàn)不同樣式的數(shù)據(jù)生成,如將文本從一種寫作風(fēng)格轉(zhuǎn)換為另一種風(fēng)格。

NLP的可解釋性

可解釋性是理解和解釋機(jī)器學(xué)習(xí)模型決策過程的任務(wù),旨在增加其透明性和合理性,以促進(jìn)可信的NLP實(shí)踐。過去的NLP系統(tǒng),如基于規(guī)則的方法、隱馬爾可夫模型和邏輯回歸等,被認(rèn)為是可解釋的白盒技術(shù)。然而,NLP的最新進(jìn)展主要是黑盒方法,以可解釋性為代價(jià)。為了解決這個(gè)問題,研究人員開始關(guān)注開發(fā)能夠揭示NLP模型內(nèi)部工作原理的技術(shù)。這些技術(shù)包括注意機(jī)制、基于規(guī)則的系統(tǒng)和可視化方法。

當(dāng)前的NLP可解釋性研究主要集中在理解模型的預(yù)測、特征重要性和決策過程等方面。注意力機(jī)制、LIME和SHAP等技術(shù)提供了對模型行為的洞察。然而,在健壯性、普遍性和倫理考慮等方面仍存在挑戰(zhàn)。此外,可解釋性方法通常缺乏標(biāo)準(zhǔn)化,難以處理復(fù)雜的大型模型,限制了它們在實(shí)際場景中的應(yīng)用。

研究方向

探索模型內(nèi)部表征。研究NLP模型的內(nèi)部表征,以揭示其推理能力和潛在偏差,并探索模型對語言的探測任務(wù)和世界知識的捕獲。

機(jī)制解釋性。研究模型中的潛在機(jī)制和算法,以揭示其決策過程,并通過提取計(jì)算子圖和逆向工程整個(gè)深度神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)機(jī)制解釋性。

Human-in-the-loop提高可解釋性。結(jié)合人的反饋和專業(yè)知識來提高模型的可解釋性,促進(jìn)透明度和信任,并識別和解決偏見和道德考慮。

基于引用生成的文本。通過附加引用和顯示額外推理步驟,為生成模型的輸出提供可靠的來源,以提高可解釋性和用戶信任度。

高效的NLP

為了應(yīng)對不斷擴(kuò)大的語言模型規(guī)模和不斷增長的資源消耗所帶來的挑戰(zhàn),我們需要探索高效的NLP。擴(kuò)大模型規(guī)模被認(rèn)為是實(shí)現(xiàn)NLP任務(wù)最先進(jìn)性能的基本方法,但這需要大量能源和財(cái)政資源,引發(fā)了對AI碳足跡和NLP產(chǎn)品開發(fā)經(jīng)濟(jì)負(fù)擔(dān)的擔(dān)憂。在數(shù)據(jù)管理、模型設(shè)計(jì)和訓(xùn)練范例方面,我們?nèi)杂泻艽蟮母倪M(jìn)空間。通過處理數(shù)據(jù)重復(fù)、提高數(shù)據(jù)質(zhì)量和管理大量數(shù)據(jù),可以提高數(shù)據(jù)效率。在模型設(shè)計(jì)方面,提高注意機(jī)制效率、開發(fā)無參數(shù)模塊減少參數(shù)量、優(yōu)化模型深度或效率是主要挑戰(zhàn)。最后,在訓(xùn)練范例方面,有機(jī)會通過promot和微調(diào)提高NLP效率。

研究方向

數(shù)據(jù)的效率。通過刪除重復(fù)、冗余或噪聲數(shù)據(jù),以更少的數(shù)據(jù)項(xiàng)提高性能。目前的工作主要關(guān)注去除噪聲示例和無用數(shù)據(jù),但對于龐大的語料庫或原始web數(shù)據(jù)管理,需要更有效的數(shù)據(jù)重復(fù)刪除方法。

模型設(shè)計(jì)。改進(jìn)注意力機(jī)制來提高模型效率的方法已經(jīng)被廣泛研究,但在處理非常長的上下文建模方面仍存在挑戰(zhàn)。稀疏模型可以通過增加寬度來增加表達(dá)性,同時(shí)降低計(jì)算量?;赥ransformer的模型的前饋層中應(yīng)用混合專家架構(gòu)也是一種值得嘗試的實(shí)踐。

高效的下游任務(wù)適應(yīng)。通過微調(diào)預(yù)訓(xùn)練模型來適應(yīng)下游任務(wù)的有效方法已經(jīng)被提出,其中包括prompt tuning和prefix tuning等技術(shù)。然而,需要找到一種高效的自動提示構(gòu)建方法,以提高下游任務(wù)的適應(yīng)性。

面向教育的NLP

NLP在教育領(lǐng)域的應(yīng)用涵蓋了多個(gè)方面,如語言學(xué)習(xí)應(yīng)用程序、語法糾正工具、評分輔助工具、課程和評估開發(fā)工具以及教育研究人員的工具。近年來,隨著BERT、RoBERTa等模型的發(fā)布,研究人員開始探索這些模型在教育領(lǐng)域的應(yīng)用,并逐漸引入更大規(guī)模的模型。目前,許多在教育領(lǐng)域部署的NLP應(yīng)用是在廣泛使用大型語言模型之前開發(fā)的。隨著進(jìn)一步的研究和發(fā)展,我們很可能會看到基于大型語言模型的任務(wù)特定模型在教育領(lǐng)域得到大規(guī)模應(yīng)用。

研究方向

可控文本生成??煽氐奈谋旧杉夹g(shù)可以用于個(gè)性化的學(xué)習(xí)體驗(yàn)。例如,通過自動生成與學(xué)生興趣相關(guān)的故事來引入新術(shù)語,或者根據(jù)學(xué)生的閱讀水平修改故事內(nèi)容。此外,閱讀理解方面的研究也可以應(yīng)用于基于學(xué)生先前經(jīng)驗(yàn)和測試結(jié)果的個(gè)性化學(xué)習(xí)體驗(yàn)。

教育解釋生成。個(gè)性化的課堂材料可以包括針對學(xué)生理解困難的解釋。例如,使用NLP系統(tǒng)幫助學(xué)生理解學(xué)術(shù)論文中復(fù)雜的句子,或者改寫老師給出的答案,以提供與學(xué)生知識體系相關(guān)的解釋。自動評分也是NLP在教育領(lǐng)域做出貢獻(xiàn)的一個(gè)領(lǐng)域,但仍存在著為不完美的分?jǐn)?shù)提供解釋的研究問題。

智能輔導(dǎo)系統(tǒng)。智能輔導(dǎo)系統(tǒng)在個(gè)性化教育方面具有巨大的潛力。NLP方法可以用于生成針對性的練習(xí)題,并解釋學(xué)生在各個(gè)學(xué)科領(lǐng)域的錯(cuò)誤。隨著NLP技術(shù)的進(jìn)一步發(fā)展,這些系統(tǒng)可能會得到改進(jìn)。然而,部署NLP技術(shù)在教育中需要謹(jǐn)慎,因?yàn)榧词箤τ诤唵蔚膯栴},NLP模型也可能給出錯(cuò)誤的答案和解釋。

需要注意的是,由于學(xué)術(shù)不誠實(shí)的可能性增加,教育界對于大型語言模型的接受度存在一定的擔(dān)憂。因此,大學(xué)和課程制定了政策來規(guī)范人工智能在教育中的使用。我們對于最近的進(jìn)展在適當(dāng)情況下對教育產(chǎn)生積極影響持樂觀態(tài)度,但整體課程如何調(diào)整以納入大型語言模型的應(yīng)用仍需觀察。

面向醫(yī)療保健的NLP

在醫(yī)療保健領(lǐng)域,NLP的應(yīng)用可以分為對醫(yī)療服務(wù)提供者和關(guān)鍵利益相關(guān)者的影響進(jìn)行分類。對于醫(yī)療服務(wù)提供者而言,NLP主要用于支持臨床決策,包括匯總和整合現(xiàn)有數(shù)據(jù)和研究,以及從數(shù)據(jù)中提取相關(guān)信息。然而,這些任務(wù)面臨著一些挑戰(zhàn),例如醫(yī)療保健數(shù)據(jù)的標(biāo)準(zhǔn)化和準(zhǔn)確標(biāo)記,以及提取和檢索醫(yī)療概念和患者病情分類。此外,NLP還用于回答患者的健康相關(guān)問題和檢索與醫(yī)療或疾病相關(guān)的信息。近年來,該領(lǐng)域的研究主要集中在心理健康領(lǐng)域的語言分析,包括專業(yè)治療和社交媒體對話。在協(xié)助公共衛(wèi)生官員方面,NLP被應(yīng)用于公共衛(wèi)生監(jiān)測,用于確定疾病、風(fēng)險(xiǎn)因素或高危人群。此外,NLP還用于緩解網(wǎng)絡(luò)上的錯(cuò)誤信息或公眾情緒等問題。

然而,NLP在醫(yī)療保健領(lǐng)域存在一些明顯的局限性。其中之一是缺乏高質(zhì)量、帶注釋的臨床數(shù)據(jù)。臨床數(shù)據(jù)對于開發(fā)臨床決策工具至關(guān)重要,但由于隱私和道德問題,通常無法公開獲取。此外,目前的工作主要集中在英語或其他高資源語言,對于少數(shù)語言的研究相對較少。同時(shí),缺乏對基于NLP的衛(wèi)生系統(tǒng)的人類評估也是一個(gè)挑戰(zhàn),因?yàn)楝F(xiàn)有的自動評估指標(biāo)并不能充分說明患者的結(jié)果。

研究方向

醫(yī)療保健基準(zhǔn)構(gòu)建。在醫(yī)療保健領(lǐng)域,需要構(gòu)建更多的基準(zhǔn)數(shù)據(jù)集,以支持各種任務(wù)的研究和開發(fā)。由于醫(yī)療數(shù)據(jù)的隱私限制,可能需要探索使用合成數(shù)據(jù)集、數(shù)據(jù)增強(qiáng)技術(shù)或以低資源語言和領(lǐng)域?yàn)榛A(chǔ)生成新的衛(wèi)生數(shù)據(jù)集的方法。此外,對于已有的基準(zhǔn)數(shù)據(jù)集,還需要進(jìn)行評價(jià)和質(zhì)量評估的研究。

NLP用于臨床決策。NLP系統(tǒng)可以用作頭腦風(fēng)暴和決策工具,幫助醫(yī)療專家進(jìn)行評估和決策過程。它們可以合成新的醫(yī)學(xué)知識,并將其提供給醫(yī)療從業(yè)人員。此外,將一般醫(yī)學(xué)知識與個(gè)人患者信息結(jié)合起來需要新的知識集成策略。由于臨床決策的高風(fēng)險(xiǎn)性,NLP系統(tǒng)的可靠性和可解釋性至關(guān)重要,以提供清晰的推理過程。

藥物發(fā)現(xiàn)。NLP方法可以從大量的科學(xué)文獻(xiàn)、專利、社交媒體、臨床記錄和其他生物醫(yī)學(xué)來源中提取和分析信息。研究方向包括藥物-靶標(biāo)相互作用的識別和優(yōu)先排序、新候選藥物的發(fā)現(xiàn)、化合物性質(zhì)的預(yù)測以及藥物設(shè)計(jì)的優(yōu)化。此外,新的NLP方法可以幫助識別新的藥物靶標(biāo)關(guān)聯(lián),并促進(jìn)更有效的藥物再利用工作。

NLP的道德/倫理問題

目前研究致力于解決雙重使用、公平性和隱私等關(guān)鍵倫理問題。除此之外,近期LLM的使用和應(yīng)用還存在其他倫理關(guān)注點(diǎn),包括版權(quán)缺失、模型解釋性差、技能退化、勞動力市場的破壞、模型誤用和模型不適用等。

研究方向

雙重使用。許多NLP應(yīng)用可能既具有積極影響,又可能被以有害方式使用。需要通過在部署前進(jìn)行討論和在部署后進(jìn)行數(shù)據(jù)調(diào)查來確定NLP模型和應(yīng)用的潛在危害。此外,開發(fā)能夠檢測、抑制和防止有害使用的NLP系統(tǒng),如事實(shí)核查器,至關(guān)重要。對抗性NLP也可以用于探索NLP系統(tǒng)的局限性和漏洞,以提高其魯棒性。

公平性。需要方法來評估NLP模型的公平性,并檢測和減少偏見。這包括研究數(shù)據(jù)集創(chuàng)建實(shí)踐及其與模型偏見的相關(guān)性。研究應(yīng)該探討是否通過對數(shù)據(jù)集創(chuàng)建提出更嚴(yán)格的要求,可以減少模型在偏見數(shù)據(jù)上訓(xùn)練或評估時(shí)可能加劇的偏見和不平等。

隱私保護(hù)。需要新的技術(shù)來識別和匿名化敏感用戶信息,同時(shí)保持?jǐn)?shù)據(jù)在分析和決策中的實(shí)用性。這包括差分隱私、聯(lián)邦學(xué)習(xí)和安全多方計(jì)算等方法,以確保NLP驅(qū)動的醫(yī)療應(yīng)用中患者數(shù)據(jù)的機(jī)密性和安全性。此外,NLP系統(tǒng)可以對數(shù)據(jù)政策產(chǎn)生影響,可以開發(fā)NLP方法來以用戶可理解的格式總結(jié)數(shù)字產(chǎn)品的數(shù)據(jù)政策,并確保模型與這些政策保持一致。

機(jī)器生成數(shù)據(jù)的版權(quán)和檢測。在NLP模型生成內(nèi)容時(shí),開發(fā)NLP模型可以使用的版權(quán)標(biāo)準(zhǔn)方法至關(guān)重要。需要確定所有權(quán)和權(quán)利的問題,特別是在領(lǐng)域如編程創(chuàng)意寫作中將LLM納入工作流程。

將NLP模型作為人類助手而非人類替代品進(jìn)行整合.可以利用NLP模型進(jìn)行人類培訓(xùn)應(yīng)用,改善人類的拼寫、寫作和閱讀理解能力。

結(jié)語

這篇論文關(guān)注的研究領(lǐng)域可以分成三類:首先,有一些領(lǐng)域因?yàn)橐筇鄶?shù)據(jù)或者缺乏推理和基礎(chǔ)能力,LLMs無法解決。其次,還有一些領(lǐng)域由于缺乏適合的數(shù)據(jù),也不能充分利用LLMs的能力。最后,還有一些領(lǐng)域可以為提升LLMs的能力和質(zhì)量做出貢獻(xiàn)。需要注意的是,作者沒有列出那些LLMs在信息提取、問答和文本摘要等方面表現(xiàn)稍顯落后的領(lǐng)域。而且,作者也沒有深入研究LLM開發(fā)的方向,因?yàn)檫@方面已經(jīng)有很多研究論文在關(guān)注了。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3032

    瀏覽量

    48360
  • 機(jī)器翻譯
    +關(guān)注

    關(guān)注

    0

    文章

    139

    瀏覽量

    14837
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    481

    瀏覽量

    21935
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    247

    瀏覽量

    279

原文標(biāo)題:LLM時(shí)代NLP研究何去何從?一個(gè)博士生的角度出發(fā)

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    突破邊界:高性能計(jì)算引領(lǐng)LLM駛向通用人工智能AGI的創(chuàng)新紀(jì)元

    ChatGPT的成功帶動整個(gè)AIGC產(chǎn)業(yè)的發(fā)展,尤其是LLM(大型語言模型,大語言模型)、NLP、高性能計(jì)算和深度學(xué)習(xí)等領(lǐng)域。LLM的發(fā)展將為全球和中國AI芯片、AI服務(wù)器市場的增長提供強(qiáng)勁動力,據(jù)估算,
    的頭像 發(fā)表于 06-25 14:31 ?826次閱讀
    突破邊界:高性能計(jì)算引領(lǐng)<b class='flag-5'>LLM</b>駛向通用人工智能AGI的創(chuàng)新紀(jì)元

    NLP的面試題目

    NLP面試題目6-10
    發(fā)表于 05-21 15:02

    NLP的tfidf作詞向量

    NLP之tfidf作詞向量
    發(fā)表于 06-01 17:28

    GPT-4發(fā)布后,你的NLP研究發(fā)生了怎樣的變化?

    solved,他們當(dāng)然轉(zhuǎn)向了其他更有前景的,unsolved的NLP子方向。而如今在LLM時(shí)代,NLP整個(gè)領(lǐng)域面臨solved,很多中間任務(wù)幾乎沒有存在的價(jià)值,
    的頭像 發(fā)表于 03-27 11:35 ?975次閱讀

    LLM在各種情感分析任務(wù)中的表現(xiàn)如何

    地址 :https://arxiv.org/pdf/2305.15005.pdf 代碼 :https://github.com/DAMO-NLP-SG/LLM-Sentiment 這篇工作調(diào)查了LLM
    的頭像 發(fā)表于 05-29 17:24 ?2044次閱讀
    <b class='flag-5'>LLM</b>在各種情感分析任務(wù)中的表現(xiàn)如何

    Macaw-LLM:具有圖像、音頻、視頻和文本集成的多模態(tài)語言建模

    盡管指令調(diào)整的大型語言模型 (LLM) 在各種 NLP 任務(wù)中表現(xiàn)出卓越的能力,但它們在文本以外的其他數(shù)據(jù)模式上的有效性尚未得到充分研究。在這項(xiàng)工作中,我們提出了 Macaw-LLM,
    的頭像 發(fā)表于 06-19 10:35 ?1281次閱讀
    Macaw-<b class='flag-5'>LLM</b>:具有圖像、音頻、視頻和文本集成的多模態(tài)語言建模

    適用于各種NLP任務(wù)的開源LLM的finetune教程~

    ChatGLM2-6b是清華開源的小尺寸LLM,只需要一塊普通的顯卡(32G較穩(wěn)妥)即可推理和微調(diào),是目前社區(qū)非?;钴S的一個(gè)開源LLM。
    的頭像 發(fā)表于 07-24 09:04 ?1630次閱讀
    適用于各種<b class='flag-5'>NLP</b>任務(wù)的開源<b class='flag-5'>LLM</b>的finetune教程~

    什么是LLM?LLM的工作原理和結(jié)構(gòu)

    隨著人工智能技術(shù)的飛速發(fā)展,大型語言模型(Large Language Model,簡稱LLM)逐漸成為自然語言處理(NLP)領(lǐng)域的研究熱點(diǎn)。LLM以其強(qiáng)大的文本生成、理解和推理能力,
    的頭像 發(fā)表于 07-02 11:45 ?4380次閱讀

    LLM模型的應(yīng)用領(lǐng)域

    和算法的優(yōu)化,LLM在各個(gè)領(lǐng)域取得了顯著的成果。 自然語言處理(NLP) 自然語言處理是LLM最重要的應(yīng)用領(lǐng)域之一。NLP旨在讓計(jì)算機(jī)能夠理解、生成和處理自然語言文本。
    的頭像 發(fā)表于 07-09 09:52 ?295次閱讀

    llm模型和chatGPT的區(qū)別

    LLM(Large Language Model)是指大型語言模型,它們是一類使用深度學(xué)習(xí)技術(shù)構(gòu)建的自然語言處理(NLP)模型。LLM模型可以處理各種語言任務(wù),如文本生成、文本分類、機(jī)器翻譯等。目前
    的頭像 發(fā)表于 07-09 09:55 ?459次閱讀

    llm模型有哪些格式

    LLM(Large Language Model,大型語言模型)是一種深度學(xué)習(xí)模型,主要用于處理自然語言處理(NLP)任務(wù)。LLM模型的格式多種多樣,以下是一些常見的LLM模型格式
    的頭像 發(fā)表于 07-09 09:59 ?337次閱讀

    llm模型本地部署有用嗎

    在當(dāng)今的人工智能領(lǐng)域,LLM(Large Language Model,大型語言模型)已經(jīng)成為了一種非常受歡迎的技術(shù)。它們在自然語言處理(NLP)任務(wù)中表現(xiàn)出色,如文本生成、翻譯、摘要、問答等。然而
    的頭像 發(fā)表于 07-09 10:14 ?270次閱讀

    nlp神經(jīng)語言和NLP自然語言的區(qū)別和聯(lián)系

    神經(jīng)語言(Neuro-Linguistic Programming,NLP) 神經(jīng)語言是一種心理學(xué)方法,它研究人類思維、語言和行為之間的關(guān)系。NLP的核心理念是,我們可以通過改變我們的思維方式和語言
    的頭像 發(fā)表于 07-09 10:35 ?561次閱讀

    大模型LLM與ChatGPT的技術(shù)原理

    在人工智能領(lǐng)域,大模型(Large Language Model, LLM)和ChatGPT等自然語言處理技術(shù)(Natural Language Processing, NLP)正逐步改變著人類
    的頭像 發(fā)表于 07-10 10:38 ?407次閱讀

    LLM預(yù)訓(xùn)練的基本概念、基本原理和主要優(yōu)勢

    在人工智能和自然語言處理(NLP)領(lǐng)域,大型語言模型(Large Language Model,簡稱LLM)的興起極大地推動了技術(shù)的進(jìn)步和應(yīng)用的發(fā)展。LLM通過在大規(guī)模文本數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,獲得了
    的頭像 發(fā)表于 07-10 11:03 ?724次閱讀