2016年美國總統(tǒng)大選期間,社交網(wǎng)絡(luò)上充斥著不準確和誤導性的文章。從那以后,科技公司——從Facebook、Google等這樣的大公司到生氣勃勃的初創(chuàng)公司——已經(jīng)打造了一些工具來打擊錯誤信息(包括許多人稱之為“假新聞”的文章,盡管這個詞被高度政治化了)。大多數(shù)公司已求助于人工智能(AI),希望快速且自動化的計算機系統(tǒng)能夠解決這個看起來像互聯(lián)網(wǎng)一樣大的問題。
“他們都在使用人工智能,因為他們需要擴大處理規(guī)模。”ClaireWardle說。她是哈佛大學約翰肯尼迪政府學院承擔的錯誤信息斗爭項目FirstDraft的負責人。她說,AI可以使那些耗時的步驟(例如,仔細檢查每天在線發(fā)布的大量內(nèi)容并標記出可能虛假的內(nèi)容)加快。
不過,Wardle說,人工智能無法做出最終的判斷?!皩τ跈C器來說,你如何編碼'誤導性的'(misleading)呢?即使是人類也難以定義它。生活是混亂、復雜和微妙的,人工智能要做到理解這一點,還有很長的路要走?!?/p>
Facebook曾因未能在2016年對虛假內(nèi)容采取行動而廣受批評。Facebook稱,它將在今年11月的美國中期選舉中以及全球其他選舉中利用人工智能把打擊虛假內(nèi)容一事做得更好。Facebook產(chǎn)品經(jīng)理JimKleban致力于減少網(wǎng)站newsfeed中的錯誤信息,他解釋說Facebook現(xiàn)在使用AI來增強人類智能。AI檢查每天在Facebook上分享的數(shù)百萬個鏈接,識別出其中的可疑內(nèi)容,然后將它們發(fā)送給事實核查人員。他說:“在可預見的未來,所有這些系統(tǒng)都需要混合型解決方案。”
當事實核查人員認為一段內(nèi)容是虛假內(nèi)容時,F(xiàn)acebook會降低其在用戶的newsfeed中的排序位置。Kleban說,這種方法使虛假內(nèi)容的被瀏覽次數(shù)減少了80%。
Facebook的AI是通過機器學習——AI系統(tǒng)接收大量被標記過的資料的數(shù)據(jù),并獨立地尋找出模式的一種技術(shù)——進行訓練的。例如,圖像分類AI可能會查看數(shù)百萬張標有“貓”或“狗”的照片,而學習到貓和狗的區(qū)別特征。但是,訓練AI來識別虛假內(nèi)容要難得多。
Kleban說,F(xiàn)acebook的AI從內(nèi)容來源開始,利用各種信號來挑選出包含錯誤信息的文章:“知道某個網(wǎng)頁或網(wǎng)站過去分享過虛假內(nèi)容,就可以預測它會再次分享虛假內(nèi)容,這樣的預測往往是很準確的?!碧摷賰?nèi)容在網(wǎng)絡(luò)上的傳播方式也可能存在一種可識別的模式;Kleban說這是一個活躍的研究領(lǐng)域。至于文本本身,AI沒有能力評估內(nèi)容的真實性,但它可以找到信號,例如在評論部分有對文本內(nèi)容表示不信任的表達。
總部位于倫敦的初創(chuàng)公司Factmata正在開發(fā)一種采用不同方法的人工智能系統(tǒng),該公司的知名投資者包括Twitter共同創(chuàng)始人BizStone和Craigslist創(chuàng)始人CraigNewmark。Factmata創(chuàng)始人DhruvGhulati說,公司并不特別關(guān)注內(nèi)容的出版者或他們的聲譽,“我們希望根據(jù)內(nèi)容本身來對內(nèi)容進行判斷?!?/p>
Factmata的系統(tǒng)采用的也是人機合作的混合型方案,雖然其配置是不同的:人是對內(nèi)容進行標記的專家,做過標記的內(nèi)容用于AI的訓練。Ghulati說:“像假新聞和宣傳這樣的東西在本質(zhì)上是差別細微的和主觀的。確實需要專業(yè)知識來理解內(nèi)容的性質(zhì)并對其進行適當?shù)臉擞??!蓖ㄟ^那些標記過的數(shù)據(jù)集,F(xiàn)actmata正在訓練其AI識別政治上有偏見的內(nèi)容、虛假內(nèi)容和仇恨言論。
該公司目前正致力于互聯(lián)網(wǎng)的“后端”,幫助互聯(lián)網(wǎng)廣告交易平臺(advertisingexchanges)避免在有問題的內(nèi)容上投放廣告。將來它可能會對社交網(wǎng)絡(luò)有用。Factmata的系統(tǒng)標記了可疑內(nèi)容并解釋了其可疑之處,但該公司將怎樣處理那些內(nèi)容的決定權(quán)留給了客戶。
一些最初是面向其他新聞目標的公司也加入了競爭??偛课挥诙及亓值腘ewsWhip向新聞機構(gòu)銷售一款基于人工智能的工具,這款工具可以發(fā)現(xiàn)熱門內(nèi)容并預測其傳播情況,從而使新聞團隊能夠快速注意到那些正在像病毒一樣迅速在網(wǎng)上傳播的新聞報道。在法國、英國和德國最近的選舉中,記者們利用該工具發(fā)現(xiàn)并揭穿了那些在社交網(wǎng)絡(luò)上廣受關(guān)注的虛假新聞報道。
總部位于倫敦的Krzana公司用一種定制的實時newsfeed幫助記者發(fā)現(xiàn)突發(fā)新聞。記者可使用Krzana的基于AI的工具發(fā)現(xiàn)四種語言(將來還會有更多種語言)的內(nèi)容,這些內(nèi)容是工具根據(jù)記者選擇的關(guān)鍵詞和搜索詞找出來的。在墨西哥最近的選舉中,一個媒體聯(lián)盟使用Krzana的工具快速找到了可能包含錯誤信息的新聞。
Krzana的共同創(chuàng)始人TobyAbel說:“記者是第一批閱讀這些報道的人,而不是等到這些報道被很多人分享后才去讀。如果它們是假的,它們很快就會遭到反擊?!?/p>
Abel說AI錯誤信息檢測器本身還不可靠,他同意需要人機合作。他引用了與2018年墨西哥大選有關(guān)的一個例子,在這次大選中,一位政治候選人以戲謔的方式回應(yīng)了對其與俄羅斯的關(guān)系的指控:他走到碼頭,宣稱自己正在等他的俄羅斯?jié)撏?。“如果在沒有外部背景和理解的情況下閱讀這篇文章,它看起來就像假新聞。但事實上并非如此?!卑⒇悹栒f。
對于試圖識別虛假內(nèi)容的人工智能系統(tǒng)來說,諷刺性表達是最棘手的問題之一。各公司也在努力找出圖像、視頻、圖表和其他非文本內(nèi)容中的錯誤信息。欺騙的可能性似乎無窮無盡,例如,照片可能是合理的,但其標題可能具有誤導性。
總部位于倫敦的非營利性事實核查機構(gòu)FullFact試圖避開灰色地帶。它正在利用機器學習來改進一種能掃描文本和視頻腳本的工具,尋找經(jīng)濟趨勢和法律訴訟等主題的、可被事實核查人員核實的事實類報道。FullFact的自動事實核查負責人MevanBabakar表示,該工具還將來自許多不同新聞來源的類似報道聚集在一起?!耙虼耍诿恳惶斓拈_始,我都會對我的事實核查員們說,'這是排名前五的像野火一樣蔓延的最熱門報道。'”
Factmata的Ghulati表示,今天的AI系統(tǒng)可能還沒有準備好獨立解析復雜的報道或做出關(guān)于真相的精細決策,但這并不意味著現(xiàn)在不應(yīng)該部署它們?!帮L險在于,你試圖得到假新聞的完美定義,卻永遠得不到答案”,他說,“重要的是要建造一些東西?!?/p>
本文的節(jié)略版將刊登在2018年9月那一期的印刷版IEEESPECTRUM上。
-
Facebook
+關(guān)注
關(guān)注
3文章
1429瀏覽量
54479 -
人工智能
+關(guān)注
關(guān)注
1787文章
46067瀏覽量
235118 -
機器學習
+關(guān)注
關(guān)注
66文章
8306瀏覽量
131855
原文標題:AI與人聯(lián)手,有望使“假新聞”不再猖獗
文章出處:【微信號:IEEE_China,微信公眾號:IEEE電氣電子工程師】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論