關(guān)于人工智能的爭(zhēng)論已經(jīng)激烈到了一個(gè)臨爆點(diǎn)。想要尋找一個(gè)戲劇化的沖突場(chǎng)景?不妨追一追正在播出的《西部世界》、《真實(shí)的人類》等美劇。
樂觀主義者對(duì)AI的熱情更盛,他們渴望將日常生活中的更多事物自動(dòng)化。懷疑論者對(duì)AI的態(tài)度更加謹(jǐn)慎,他們認(rèn)為AI對(duì)人類社會(huì)帶來的顛覆可能不全是有益的,并且刻意減少對(duì)AI工具的使用。
拒絕AI賦能,或許會(huì)使一大群人在未來的社會(huì)競(jìng)爭(zhēng)中處于劣勢(shì)。因?yàn)閷?duì)AI信任的程度可能導(dǎo)致就業(yè)機(jī)會(huì)的差異,從而影響每個(gè)人社會(huì)經(jīng)濟(jì)地位的變化。AI追隨者和AI否定者之間的沖突可能最終會(huì)迫使政府出臺(tái)不利于創(chuàng)新的政策。想讓AI充分發(fā)揮其潛力,我們必須找到讓人們信任它的方法。
每期監(jiān)測(cè)和精編中文視野之外的全球高價(jià)值情報(bào),為你提供先人一步洞察機(jī)會(huì)的新鮮資訊,為你提供升級(jí)思維方式的深度內(nèi)容,是為[ 紅杉匯內(nèi)參 ]。
三個(gè)方法緩解
AI信任危機(jī)
除非你過著隱居生活,否則你的生活中一定充斥著關(guān)于機(jī)器學(xué)習(xí)和人工智能的各式新聞。人工智能的一系列突破性進(jìn)展,似乎已經(jīng)讓它具備了預(yù)測(cè)未來的能力。警察利用人工智能來確定犯罪活動(dòng)可能發(fā)生的時(shí)間、地點(diǎn);醫(yī)生用它來測(cè)算病人什么時(shí)間最可能心臟病發(fā)作或是中風(fēng);研究人員甚至嘗試著賦予人工智能想象能力,讓其能夠預(yù)測(cè)未來。
當(dāng)然,我們生活中的許多決定需要基于準(zhǔn)確的預(yù)測(cè),而AI一般都比人類能作出更好的預(yù)測(cè)。但是,盡管取得了如此的技術(shù)進(jìn)步,人們似乎對(duì)AI的預(yù)測(cè)結(jié)果依然充滿不信任。
想讓AI給人類帶來實(shí)在的好處,我們必須要找到一種方式,使其獲得人類的信任。
我們應(yīng)該信任機(jī)器人醫(yī)生嗎?
利用世界上最強(qiáng)大的超級(jí)計(jì)算機(jī)系統(tǒng),IBM推出的針對(duì)癌癥的人工智能軟件Watson可以給醫(yī)生提供最好的癌癥治療建議。該軟件聲稱可為12種癌癥提供高質(zhì)量的治療建議,這包括了世界上80%的癌癥病例。目前,已有超過14000名患者接受了它計(jì)算出的治療建議。
然而,當(dāng)醫(yī)生們開始和Watson人機(jī)互動(dòng)的時(shí)候,他們發(fā)現(xiàn)自己陷入了相當(dāng)尷尬的境地。一方面,如果Watson提供了符合他們觀點(diǎn)的治療建議,醫(yī)生就不覺得它的建議有價(jià)值。
計(jì)算機(jī)只是告訴了醫(yī)生們已經(jīng)知道的東西,這些建議也沒有改變目前采用的療法。它可能作為定心丸,讓醫(yī)生們對(duì)自己的決定更加自信。但是IBM目前還沒提供Watson真的可以提高癌癥患者存活率的證據(jù)。
另一方面,如果Watson的建議正好跟專家的意見相左,醫(yī)生們則會(huì)認(rèn)為它能力不足(或是將這一不權(quán)威的解決辦法歸咎于系統(tǒng)故障)。更多的情況是,機(jī)器無法解釋為何其治療方法很可能是有效的,因?yàn)槠錂C(jī)器學(xué)習(xí)算法過于復(fù)雜,人們沒法完全理解。結(jié)果,這又導(dǎo)致了更大的不信任,讓很多醫(yī)生直接無視了看起來有點(diǎn)古怪的人工智能建議。
信任問題的根源在于人類自身
很多專家認(rèn)為未來社會(huì)將建立在有效的人機(jī)合作上,但是人類對(duì)機(jī)器缺乏信任是阻礙這一未來實(shí)現(xiàn)的最重要因素。
Watson存在的問題在于醫(yī)生的不信任。人類的信任往往是基于其他人怎么想,以及擁有關(guān)于其可靠性的經(jīng)驗(yàn)。這兩者都可以幫助人們建立心理上的安全感。而人工智能目前對(duì)大多數(shù)人而言仍是相對(duì)較新穎的東西。它采用復(fù)雜的系統(tǒng)性分析,從大量數(shù)據(jù)中識(shí)別出潛在模式和虛弱信號(hào)。
即使技術(shù)上可以解釋得清楚(但情況往往并非如此),人工智能的決策過程對(duì)很多人而言依然過于難以理解。與我們不能理解的事物互動(dòng),則可能會(huì)導(dǎo)致焦慮和失控的感覺。很多人并不熟悉人工智能真正起作用的情況,因?yàn)檫@往往發(fā)生在幕后,但是他們卻能十分清醒地看到人工智能發(fā)生重大錯(cuò)誤的情況:
?將有色人種視為大猩猩的谷歌算法;
?在圣弗朗西斯科闖紅燈的Uber自動(dòng)駕駛汽車;
?自動(dòng)生成的、將廣告投放于反猶太和恐同視頻旁的YouTube廣告宣傳活動(dòng);
?某個(gè)搭載了亞馬遜語音助手Alexa的設(shè)備給兒童提供成人內(nèi)容;
?游戲“口袋怪物”的算法再次出現(xiàn)種族隔離問題,使其火上澆油;
?微軟聊天機(jī)器人變成了白人至上主義者;
?自動(dòng)駕駛模式的特斯拉汽車發(fā)生了一起致命事故。
這些不幸的事件收獲了過多的媒體關(guān)注度,再次強(qiáng)調(diào)人類不能總是依靠技術(shù)這一信息。最后,所有的一切都會(huì)回到機(jī)器學(xué)習(xí)也會(huì)出錯(cuò)這一簡(jiǎn)單事實(shí)上。
《終結(jié)者》的觀影影響:
被AI分裂的社會(huì)?
人類對(duì)AI的感情可謂復(fù)雜。但是為什么有些人能接受AI,而另一些人卻對(duì)其深表懷疑呢?
2017年12月有一組實(shí)驗(yàn),要求各種不同背景的實(shí)驗(yàn)對(duì)象觀看一些關(guān)于AI的科幻電影,并在觀影之前和之后分別邀請(qǐng)他們填寫關(guān)于他們對(duì)自動(dòng)化看法的調(diào)查問卷。詢問的內(nèi)容包括他們對(duì)互聯(lián)網(wǎng)的總體態(tài)度、他們?cè)?a href="http://ttokpm.com/soft/data/42-102/" target="_blank">AI技術(shù)方面的體驗(yàn)、將日常生活中某些任務(wù)自動(dòng)化的意愿:哪些任務(wù)是樂意用假想的AI助手實(shí)現(xiàn)自動(dòng)化的、以及哪些任務(wù)是想要堅(jiān)持自己執(zhí)行的。
令人驚訝的是,像《終結(jié)者》《云端情人》或《機(jī)械姬》這類電影,為我們描繪的是一個(gè)烏托邦還是反烏托邦的未來都并不重要。實(shí)驗(yàn)發(fā)現(xiàn),無論人們觀看的電影是以積極還是消極的角度去描繪AI,只是單純的在電影世界里觀看到高科技未來,就能使參與者的態(tài)度變得極端化。樂觀主義者會(huì)對(duì)AI的熱情變得更盛,他們渴望自動(dòng)化日常生活中的更多事物。相反,懷疑論者對(duì)AI的態(tài)度就變得更加謹(jǐn)慎,他們質(zhì)疑AI的潛在益處,并且更愿意積極抵制朋友和家人使用AI工具。
從這些發(fā)現(xiàn)中得到的啟示是令人擔(dān)憂的。一方面,這表明人們帶著偏見使用AI相關(guān)證據(jù)來支持他們現(xiàn)有的態(tài)度,這是一種根深蒂固的人性趨勢(shì),被稱為“確認(rèn)性偏差”。這種認(rèn)知偏差是在研究中觀察到的極端化效應(yīng)背后的主要推手。
另一方面,由于技術(shù)進(jìn)步的步伐不減,拒絕接受AI所能帶來的優(yōu)勢(shì),可能會(huì)使一大批人處于嚴(yán)重的不利地位。隨著人工智能在大眾文化和媒體中的出現(xiàn)頻率越來越高,它可能會(huì)促成嚴(yán)重的社會(huì)分裂,使其分裂為兩撥人,一撥是AI的信仰者(并因此受益的人),一撥是拒絕AI的人。
更中肯地來講,拒絕接受AI提供的優(yōu)勢(shì),或許也會(huì)使一大群人處于嚴(yán)重的劣勢(shì)。這是因?yàn)锳I信任上的差異可能導(dǎo)致就業(yè)機(jī)會(huì)的差異,從而導(dǎo)致社會(huì)經(jīng)濟(jì)地位的差異。AI追隨者和AI否定者之間的沖突可能會(huì)促使政府采取無情的監(jiān)管措施,從而遏制創(chuàng)新。
緩解AI信任危機(jī)
因此,要想讓AI充分發(fā)揮其潛力,我們必須找到讓人們信任它的方法,特別是當(dāng)AI提出的建議與我們習(xí)慣采取的建議截然不同時(shí)。幸運(yùn)的是,隧道的盡頭總有光——我們已經(jīng)有提高對(duì)AI信任的方法了。
?體驗(yàn):一種解決方案是在日常環(huán)境下為自動(dòng)化應(yīng)用程序和其他AI應(yīng)用程序提供更多的實(shí)際操作體驗(yàn)(例如一個(gè)可以從冰箱為你拿啤酒的機(jī)器人)。這對(duì)于那些對(duì)這項(xiàng)技術(shù)沒有很深入了解的公眾來說尤其重要。
?洞見:另一種解決方案或許就是打開機(jī)器學(xué)習(xí)算法的“黑匣子”,讓其運(yùn)作方式稍微變得透明些。Google、Airbnb和Twitter等公司已經(jīng)開始定期發(fā)布透明度報(bào)告,對(duì)AI系統(tǒng)采取類似做法可以幫助人們更好地理解算法決策是如何做出的。
?控制:最后,協(xié)作決策過程的建立將有助于信任的建立,并讓AI能從人類經(jīng)驗(yàn)中學(xué)習(xí)。賓夕法尼亞大學(xué)的一組研究人員最近發(fā)現(xiàn),給予人們對(duì)算法的控制可以幫助人們?cè)黾訉?duì)AI預(yù)測(cè)的信任。在他們的研究中,被賦予了稍微修改算法的權(quán)利的人會(huì)對(duì)AI感到更滿意,更有可能相信它的卓越性,并且更有可能在未來使用它。
人們并不需要了解AI系統(tǒng)復(fù)雜的內(nèi)部運(yùn)作,但如果他們至少能得到一些如何執(zhí)行的信息,并能對(duì)執(zhí)行過程擁有一定的控制權(quán),他們就會(huì)更樂于接受人工智能。
2000萬歐元
5月25日,歐洲“史上最嚴(yán)”的數(shù)據(jù)保護(hù)條例——通用數(shù)據(jù)保護(hù)條例(GDPR)生效。對(duì)于違規(guī)收集個(gè)人信息的互聯(lián)網(wǎng)公司,最高可罰款2000萬歐元或全球營業(yè)額的4%(以較高者為準(zhǔn))。“GDPR正將必要的意識(shí)引入到生態(tài)系統(tǒng)中,并通過提醒公司在隱私領(lǐng)域承擔(dān)多大的責(zé)任來引導(dǎo)它們?!迸=虼髮W(xué)教授Sandra Wachter如此評(píng)論。
#原來,創(chuàng)業(yè)者愛玩德?lián)涫怯械览淼?
撲克牌中蘊(yùn)含的商業(yè)原理
?耐心和紀(jì)律。玩牌時(shí)經(jīng)常一坐數(shù)小時(shí)并一絲不茍堅(jiān)持游戲規(guī)則,同樣地,商業(yè)成功也沒有捷徑可走。
?評(píng)估風(fēng)險(xiǎn)。能夠識(shí)別機(jī)遇和投入資金是成功企業(yè)家的關(guān)鍵素質(zhì),無論是否擁有王牌,都不能害怕承擔(dān)輸牌的風(fēng)險(xiǎn)。
?控制情緒。我們不會(huì)總贏——無論是撲克還是商業(yè),不要讓情緒化的回應(yīng)把你踢出局。
#來自貝佐斯的建議#
CEO如何應(yīng)對(duì)排山倒海的批評(píng)?
2017年,安德瑪?shù)墓蓛r(jià)大幅下跌45%。首席執(zhí)行官凱文?普蘭克受到了大量批評(píng),導(dǎo)致他向重量級(jí)企業(yè)家求助。杰夫?貝佐斯給出的建議初聽起來有悖直覺,但卻絕妙:
?這些批評(píng)是正確的嗎?80%或90%的批評(píng)可能是不正確的,但如果有值得思考的地方,至少要以謙虛、耐心和成熟的心態(tài)去接受。
?不為自己辯護(hù)。你知道你的公司經(jīng)歷了種種困難才走到今天,一兩個(gè)人對(duì)小錯(cuò)揪住不放并不意味著你已有的成就不值一提。
?篩選批評(píng)者。過于認(rèn)真地看待每一條批評(píng)會(huì)陷入自我懷疑的困境,選擇你愿意接受或考慮接受其意見的批評(píng)者及他們的有益批評(píng)。
-
機(jī)器人
+關(guān)注
關(guān)注
210文章
28103瀏覽量
205853 -
AI
+關(guān)注
關(guān)注
87文章
29807瀏覽量
268108 -
人工智能
+關(guān)注
關(guān)注
1789文章
46654瀏覽量
237090
原文標(biāo)題:信AI還是信自己?這是一個(gè)問題|紅杉匯內(nèi)參
文章出處:【微信號(hào):Sequoiacap,微信公眾號(hào):紅杉匯】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論