人工智能(AI)和超級(jí)智能機(jī)器是人類(lèi)可能發(fā)生的最好還是最壞的事情?自1940年代以來(lái),這一直是一個(gè)問(wèn)題,當(dāng)時(shí)計(jì)算機(jī)科學(xué)家艾倫·圖靈(Alan Turing)想知道并開(kāi)始相信,有時(shí)機(jī)器可以通過(guò)模仿進(jìn)化的過(guò)程對(duì)人類(lèi)產(chǎn)生無(wú)限影響。
人工智能(AI)對(duì)人類(lèi)構(gòu)成威脅嗎?
ADOBE STOCK
牛津大學(xué)教授尼克·博斯特羅姆(Nick Bostrom)的《紐約時(shí)報(bào)》暢銷(xiāo)書(shū)《超級(jí)情報(bào):道路,危險(xiǎn),策略》于2014年首次出版時(shí),它聚焦于所有可能出錯(cuò)的地方,引起了這場(chǎng)辯論的緊張。但是,在我最近與Bostrom的對(duì)話(huà)中,他還承認(rèn)人工智能技術(shù)具有巨大的發(fā)展?jié)摿Α?/p>
您可以在此處查看我們對(duì)話(huà)的完整視頻:
今天在:創(chuàng)新undefined
自Bostrom在2014年撰寫(xiě)這本書(shū)以來(lái),人工智能以及機(jī)器和深度學(xué)習(xí)的進(jìn)步非常迅速。人工智能已經(jīng)成為公眾討論的話(huà)題,大多數(shù)政府都制定了一些解決人工智能的戰(zhàn)略或路線(xiàn)圖。在他的書(shū)中,他談到AI有點(diǎn)像孩子們玩的炸彈,隨時(shí)可能爆炸。
博斯特倫解釋說(shuō):“就我們的智慧而言,我們的成熟水平,我們作為一個(gè)物種進(jìn)行合作的能力,另一方面我們利用技術(shù)來(lái)改變世界的工具能力之間存在著不匹配。就像我們變得比睿智變得更快更強(qiáng)大?!?/p>
沒(méi)有后悔嗎?:我希望我在大學(xué)里遵循的建議
各種各樣令人興奮的AI工具和應(yīng)用程序開(kāi)始以多種方式影響經(jīng)濟(jì)。這些不應(yīng)被假設(shè)的未來(lái)點(diǎn)的過(guò)度宣傳所掩蓋,在該點(diǎn)上,您獲得的AI具有與人類(lèi)以及超智能機(jī)器相同的一般學(xué)習(xí)和計(jì)劃能力。這是需要注意的兩個(gè)不同的上下文。
如今,迫在眉睫的威脅不是來(lái)自超級(jí)智能,而是目前使用的有用的(但有潛在危險(xiǎn))應(yīng)用程序AI。
人工智能有多危險(xiǎn)?
如果我們專(zhuān)注于當(dāng)今AI可能帶來(lái)的影響,那么以下是我們應(yīng)該考慮并計(jì)劃的人工智能潛在的負(fù)面影響:
改變?nèi)祟?lèi)要做的工作/工作自動(dòng)化:人工智能將改變?nèi)祟?lèi)的工作場(chǎng)所和工作。人工智能技術(shù)將失去一些工作,因此人類(lèi)將需要適應(yīng)變化并尋找新的活動(dòng),以為其提供工作所帶來(lái)的社會(huì)和精神利益。
政治,法律和社會(huì)方面的后果:正如Bostrom所建議的那樣,與其避免追求AI創(chuàng)新,不如說(shuō):“我們的重點(diǎn)應(yīng)該放在使自己處于最佳位置,以便在所有方面都做好準(zhǔn)備時(shí),我們就做好了功課。我們“已經(jīng)開(kāi)發(fā)了可擴(kuò)展的AI控制方法,我們對(duì)道德和政府等問(wèn)題進(jìn)行了認(rèn)真的思考。然后進(jìn)一步進(jìn)行研究,希望由此產(chǎn)生非常好的結(jié)果?!比绻覀兊恼蜕虡I(yè)機(jī)構(gòu)現(xiàn)在不花時(shí)間制定規(guī)則,法規(guī)和職責(zé),那么隨著AI的不斷成熟,可能會(huì)產(chǎn)生重大的負(fù)面影響。
人工智能引發(fā)的恐怖主義:人工智能將改變自動(dòng)無(wú)人駕駛飛機(jī),機(jī)器人群以及遠(yuǎn)程和納米機(jī)器人攻擊的戰(zhàn)斗方式。除了關(guān)注核軍備競(jìng)賽之外,我們還需要監(jiān)視全球自動(dòng)武器競(jìng)賽。
社交操縱和AI偏見(jiàn):到目前為止,AI仍然有被制造它的人偏見(jiàn)的風(fēng)險(xiǎn)。如果訓(xùn)練AI的數(shù)據(jù)集存在偏差,則該偏差將影響AI動(dòng)作。與2016年美國(guó)總統(tǒng)大選時(shí)一樣,如果使用不當(dāng),人工智能可能會(huì)被用于社會(huì)操縱和擴(kuò)大錯(cuò)誤信息。
人工智能監(jiān)視:人工智能的面部識(shí)別功能為我們提供了便利,例如能夠解鎖手機(jī)并無(wú)需鑰匙即可進(jìn)入建筑物,但它也啟動(dòng)了許多公民自由組織認(rèn)為令人震驚的對(duì)公眾的監(jiān)視。在中國(guó)和其他國(guó)家/地區(qū),警察和政府通過(guò)使用面部識(shí)別技術(shù)來(lái)侵犯公共隱私。博斯特羅姆解釋說(shuō),人工智能從監(jiān)視數(shù)據(jù),攝像機(jī)和采礦社交網(wǎng)絡(luò)通信中監(jiān)視全球信息系統(tǒng)的能力無(wú)論好壞都有很大的潛力。
Deepfakes:AI技術(shù)使創(chuàng)建真實(shí)人物的“假”視頻變得非常容易。可以在未經(jīng)個(gè)人許可的情況下使用這些信息來(lái)傳播假新聞,以實(shí)際上不參與其中的人的身份制造色情內(nèi)容,并且不僅損害個(gè)人聲譽(yù),而且損害人們的生計(jì)。該技術(shù)變得越來(lái)越好,人們被它欺騙的可能性很高。
正如尼克·博斯特倫(Nick Bostrom)解釋的那樣,“最大的威脅是長(zhǎng)期問(wèn)題,引入了一些超級(jí)智能的根本方法,無(wú)法使其與人類(lèi)價(jià)值觀和意圖保持一致。這是一個(gè)很大的技術(shù)問(wèn)題。在解決安全和對(duì)準(zhǔn)問(wèn)題之前,我們已經(jīng)成功解決了能力問(wèn)題?!?/p>
如今,尼克將自己描述為“可怕的樂(lè)觀主義者”,他對(duì)AI如果我們能做到正確就可以做什么感到非常興奮。他說(shuō):“近期的影響是壓倒性的。長(zhǎng)期影響更多是一個(gè)懸而未決的問(wèn)題,很難預(yù)測(cè)。如果我們做功課,并且在我們可以利用的任何時(shí)間里,我們?cè)侥艹蔀橐粋€(gè)世界和一個(gè)物種,我們?cè)谝黄鹱龅氖虑樵蕉啵覀優(yōu)榇俗龊玫臏?zhǔn)備就越多,獲得有利結(jié)果的幾率就越大。在那種情況下,這可能是非常有利的?!?/p>
-
人工智能
+關(guān)注
關(guān)注
1791文章
46705瀏覽量
237219 -
計(jì)算機(jī)科學(xué)
+關(guān)注
關(guān)注
1文章
142瀏覽量
11352 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1202瀏覽量
24623
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論