面對互聯(lián)網(wǎng)內(nèi)容生產(chǎn)效率提升的迫切需求,是否能夠利用人工智能去輔助內(nèi)容生產(chǎn)?這種繼專業(yè)生產(chǎn)內(nèi)容(PGC)、用戶生成內(nèi)容(UGC)之后形成的、完全由人工智能生成內(nèi)容的創(chuàng)作形式被稱為AIGC。最初的AIGC通?;谛∧P驼归_,這類模型一般需要特殊的標(biāo)注數(shù)據(jù)訓(xùn)練,以解決特定的場景任務(wù),通用性較差,很難被遷移,而且高度依賴人工調(diào)參。后來,這種形式的AIGC逐漸被基于大數(shù)據(jù)量、大參數(shù)量、強算法的大模型取代,這種形式的AIGC無須經(jīng)過調(diào)整或只經(jīng)過少量微調(diào)就可以遷移到多種生成任務(wù)。
2014年誕生的生成對抗網(wǎng)絡(luò)(GAN)是AIGC早期轉(zhuǎn)向大模型的重要嘗試,它利用生成器和判別器的相互對抗并結(jié)合其他技術(shù)模塊,可以實現(xiàn)各種模態(tài)內(nèi)容的生成。而到了2017年,變換器( Transformer)架構(gòu)的提出,使得深度學(xué)習(xí)模型參數(shù)在后續(xù)的發(fā)展中得以突破1億大關(guān)。2022年11月30日,開放人工智能研究實驗室(OpenAI)發(fā)布了名為ChatGPT的超級人工智能(AI)對話模型。ChatGPT不僅可以清晰地理解用戶的問題,還能如同人類一般流暢地回答用戶的問題,并完成一些復(fù)雜任務(wù),包括按照特定文風(fēng)撰寫詩歌、假扮特定角色對話、修改錯誤代碼等。此外,ChatGPT還表現(xiàn)出一些人類特質(zhì),例如承認(rèn)自己的錯誤,按照設(shè)定的道德準(zhǔn)則拒絕不懷好意的請求等。ChatGPT一上線,就引發(fā)網(wǎng)民爭相體驗,但也有不少人對此表示擔(dān)憂,擔(dān)心作家、畫家、程序員等職業(yè)在未來都將被人工智能所取代。
雖然存在這些擔(dān)憂,但人類的創(chuàng)造物終究會幫助人類自身的發(fā)展,AIGC無疑是一種生產(chǎn)力的變革,將世界送入智能創(chuàng)作時代。在智能創(chuàng)作時代,創(chuàng)作者生產(chǎn)力的提升主要表現(xiàn)為三個方面:一是代替創(chuàng)作中的重復(fù)環(huán)節(jié),提升創(chuàng)作效率;二是將創(chuàng)意與創(chuàng)作相分離,內(nèi)容創(chuàng)作者可以從人工智能的生成作品中找尋靈感與思路;三是綜合海量預(yù)訓(xùn)練的數(shù)據(jù)和模型中引入的隨機(jī)性,有利于拓展創(chuàng)新的邊界,創(chuàng)作者可以生產(chǎn)出過去無法想出的杰出創(chuàng)意。
技術(shù)倫理成為發(fā)展的重要關(guān)注點
AIGC技術(shù)的發(fā)展無疑是革命性的。它可以改善我們的日常生活,提高生產(chǎn)力,但也面臨著諸多技術(shù)倫理方面的挑戰(zhàn)。
一個典型的AIGC技術(shù)倫理問題是AI所生成內(nèi)容的危險性??茖W(xué)家正嘗試運用一些技術(shù)手段避免這些具有潛在風(fēng)險的事件發(fā)生。通過改善數(shù)據(jù)集,增加更多的限制性條件以及對模型進(jìn)行微調(diào),可以使得人工智能減少對于有害內(nèi)容的學(xué)習(xí),從而降低人工智能本身的危險性。甚至我們可以“教會”人工智能如何更尊重他人,減少判斷當(dāng)中的偏見,更好地和人類相處。借鑒強化學(xué)習(xí)思想(RLHF)方法就是減少人工智能生成危害性內(nèi)容的典型措施,ChatGPT就是采用這種方式訓(xùn)練的。在RLHF的框架下,開發(fā)人員會在人工智能做出符合人類預(yù)期回答時給予獎勵,而在做出有害內(nèi)容的回答時施加懲罰,這種根據(jù)人類反饋信號直接優(yōu)化語言模型的方法可以給予AI積極的引導(dǎo)。然而,即便采用這種方式,AI生成的內(nèi)容也有可能在刻意誘導(dǎo)的情況下具有危害性。以ChatGPT為例,在一位工程師的誘導(dǎo)下,它寫出了步驟詳細(xì)的毀滅人類計劃書,詳細(xì)到入侵各國計算機(jī)系統(tǒng)、控制武器、破壞通訊和交通系統(tǒng)等。還有一些人表達(dá)了對RLHF這類安全預(yù)防性技術(shù)措施的質(zhì)疑,他們擔(dān)憂足夠聰明的人工智能可能會通過模仿人類的偽裝行為來繞過懲罰,在被監(jiān)視的時候假裝是好人,等待時機(jī),等到?jīng)]有監(jiān)視的時候再做壞事。
除了從訓(xùn)練角度對AIGC潛在技術(shù)倫理問題進(jìn)行預(yù)防外,在使用上及時告警停用的技術(shù)措施更顯必要。AIGC產(chǎn)品應(yīng)該對生成的內(nèi)容進(jìn)行一系列合理檢測,確保其創(chuàng)作內(nèi)容不被用于有害或非法目的,一旦發(fā)現(xiàn)此類用途,人工智能應(yīng)該可以立刻識別,停止提供服務(wù),并且給出警告甚至聯(lián)系相關(guān)監(jiān)管或者執(zhí)法機(jī)構(gòu)。
監(jiān)管法律正待完善
隨著全球范圍內(nèi)的相關(guān)法律法規(guī)的不斷完善,無論是賦能產(chǎn)業(yè)升級還是自主釋放價值,AIGC都將在健康有序的發(fā)展中得到推進(jìn)。標(biāo)準(zhǔn)規(guī)范為AIGC生態(tài)構(gòu)建了一個技術(shù)、內(nèi)容、應(yīng)用、服務(wù)和監(jiān)管的全過程一體化標(biāo)準(zhǔn)
體系,促進(jìn)AIGC在合理、合規(guī)和合法的框架下進(jìn)行良性發(fā)展。
以美國為例,雖然美國在AIGC技術(shù)領(lǐng)域起步較早,且技術(shù)布局一直處于全球領(lǐng)先地位,但迄今為止還沒有關(guān)于AIGC的全面聯(lián)邦立法??紤]到AIGC所涉及的風(fēng)險以及濫用可能造成的嚴(yán)重后果,美國正在加速檢查和制定AIGC標(biāo)準(zhǔn)的進(jìn)程。例如美國國家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)與公共和私營部門就聯(lián)邦標(biāo)準(zhǔn)的制定進(jìn)行了討論,以創(chuàng)建可靠、健全和值得信賴的人工智能系統(tǒng)的基礎(chǔ)。與此同時,州立法者也在考慮AIGC的好處和挑戰(zhàn)。根據(jù)不完全統(tǒng)計,2022年,至少有17個州提出了AIGC相關(guān)的法案或決議,并在科羅拉多州、伊利諾伊州、佛蒙特州和華盛頓州頒布。
審核編輯黃宇
-
人工智能
+關(guān)注
關(guān)注
1789文章
46652瀏覽量
237079 -
ChatGPT
+關(guān)注
關(guān)注
29文章
1546瀏覽量
7358 -
AIGC
+關(guān)注
關(guān)注
1文章
352瀏覽量
1485
發(fā)布評論請先 登錄
相關(guān)推薦
評論