今天,《連線》發(fā)表了一篇專訪Geoffrey Hinton的長文。
在這次加拿大G7人工智能會議上的訪談里,Hinton談到了對谷歌軍方合同的“私下”抗議,還提出了對現(xiàn)在AI研究的一些看法,比如:
不要讓AI解釋自己,那簡直是個災(zāi)難。人類大多數(shù)時候都沒法解釋自己。
發(fā)展AI需要新型的計算硬件(他指的并不是TPU)。
我們在研究中應(yīng)該追求“新想法”,不能一味看效果。從長遠來看,一個全新的想法比一個微小的改進更有影響力。
另外,Hinton還說:不,不會再有AI寒冬了。
以下是采訪實錄:
Wired:加拿大***特魯多在G7大會上說,人工智能帶來了一些道德挑戰(zhàn),對此需要做更多工作,你怎么想?
Hinton:我一直很擔(dān)心致命自主武器的濫用。我認為,應(yīng)該有一個類似于日內(nèi)瓦公約的東西,像禁止化學(xué)武器一樣禁止它們。就算不是每個國家都簽署這個公約,實際上它也會起到像道德旗幟一樣的作用。誰沒簽?zāi)闶悄芸吹降摹?/p>
Wired:有一封抗議Google為國防部提供無人機圖像識別服務(wù)的公開信,有4500名你的同事簽了名。你簽了嗎?
Hinton:作為一名Google高管,我認為我不應(yīng)該公開表達對公司的不滿,所以,我私下表達。我沒有簽公開信,而是找(Google聯(lián)合創(chuàng)始人)謝爾蓋·布林談了談。他說他對這個事情也不滿,所以,這不是他們的追求。
Wired:Google決定履行完這份合同,但是不會續(xù)簽,還發(fā)布了一份AI指導(dǎo)方針,其中就包含了不能把這項技術(shù)用于武器。
Hinton:我認為Google的選擇是正確的。各種各樣的東西都需要云計算,想弄清底線設(shè)在哪確實很難。我對Google設(shè)置的底線很滿意,那些原則我認為很有道理。
Wired:在日常場景里,比如在社會服務(wù)、醫(yī)療等領(lǐng)域用軟件做決策的時候,人工智能也會帶來道德問題。我們應(yīng)該當心什么?
Hinton:我的專業(yè)領(lǐng)域是讓這個技術(shù)管用,不是社會政策。這里面確實有一點和我的專業(yè)技能相關(guān),就是判斷監(jiān)管者該不該堅持要求你能解釋AI系統(tǒng)的工作原理。我認為那完全是個災(zāi)難。
在大多數(shù)事情上,人類都不能解釋自己的原理。你招人的時候,是基于那些可以量化的東西來做判斷,再加上各種”直覺”。人們根本不知道自己是怎么做到的。如果你讓人類對自己的決定做出解釋,就相當于逼他們編故事。
神經(jīng)網(wǎng)絡(luò)的問題也一樣。你訓(xùn)練了一個神經(jīng)網(wǎng)絡(luò),它學(xué)習(xí)的是幾十億數(shù)字,代表著從訓(xùn)練數(shù)據(jù)中提取的知識,輸入一張圖片,它給出正確的決定,比如說這是不是一個行人。但如果你要問“它為什么這么想”……如果圖片里有沒有行人能通過任何簡單的規(guī)則來判斷的話,這個問題早就解決了。
Wired:所以,我們怎么會知道什么時候能信任這些系統(tǒng)?
Hinton:應(yīng)該根據(jù)表現(xiàn)來管理它們。你可以用實驗來檢驗有沒有偏見。對于無人車,我認為人們現(xiàn)在已經(jīng)算接受了,就算不知道一輛無人車怎么做到的,如果它發(fā)生的事故比人類司機少,那就是好事。我認為我們要像對人一樣來對待這個問題:看他們表現(xiàn)如何。
△https://arxiv.org/abs/1807.04587
Wired:在你上周發(fā)表的一篇論文中,提及應(yīng)該進一步研究大腦中的學(xué)習(xí)算法。這是為什么?
Hinton:大腦和現(xiàn)在大多數(shù)神經(jīng)網(wǎng)絡(luò)都不一樣。人類大腦有大約100萬億個突觸,而人工神經(jīng)網(wǎng)絡(luò)的權(quán)重通常要小1萬倍。大腦使用大量的突觸,從很少的樣本中盡可能多的學(xué)習(xí)。而深度學(xué)習(xí)則是利用更少的神經(jīng)元連接,從大量的樣本中進行學(xué)習(xí)。
我認為大腦并不關(guān)注如何把大量知識壓縮成幾個突觸的連接,而是關(guān)注如何使用大量的連接,快速的提取知識。
Wired:那應(yīng)該如何構(gòu)建更強大的機器學(xué)習(xí)系統(tǒng)?
Hinton:我們需要轉(zhuǎn)向另一種計算機。幸運的是,我這里就有一個。
(Hinton說罷把手伸到包里,掏出一塊耀眼的大芯片。這個芯片是英國初創(chuàng)公司Graphcore的原型產(chǎn)品,這家公司致力于為機器/深度學(xué)習(xí)算法開發(fā)新型處理器。)
△漂亮得不像實力派
大多數(shù)用來運行神經(jīng)網(wǎng)絡(luò)的計算機,甚至包括Google的專用硬件,都得使用RAM(來存儲正在使用的程序)。從RAM中獲取神經(jīng)網(wǎng)絡(luò)的權(quán)重代價高昂,所以一旦軟件獲得了權(quán)重,就會反復(fù)使用很多次。想要改變是一個成本巨大的事情。
而在Graphcore芯片上,權(quán)重存儲在處理器的緩存而不是RAM中,所以不會被移走。因此某些探索會變得更容易。 比如我們可以搞個一萬億個權(quán)重的系統(tǒng),但是每次訓(xùn)練只涉及數(shù)十億的權(quán)重。這種方式更接近大腦。
Wired:AI和機器學(xué)習(xí)的快速增長,是否也帶來了新的挑戰(zhàn)?
Hinton:現(xiàn)在一個巨大的挑戰(zhàn)是,如果你想發(fā)表一篇機器學(xué)習(xí)論文,有一些條條框框的限制。如果你用的方法,看起來效果沒那么好,那就很難發(fā)表。我不認為這能鼓勵人們?nèi)ニ伎既碌姆椒ā?/p>
現(xiàn)在如果你發(fā)送了一個有著全新想法的論文,被接收的可能性非常低,或者會有一些無法理解你想法的初級同行在評審,或者一些看了太多論文的資深評審者,他們都不理解你的論文,并且認為是無稽之談。我認為這非常糟糕。
我們應(yīng)該追求的,特別是在基礎(chǔ)科學(xué)會議上,是一些全新的想法。從長遠來看,一個全新的想法比一個微小的改進更有影響力。出現(xiàn)這個問題的原因,就是資深人士太少,而年輕人太多。
Wired:這會破壞AI領(lǐng)域的進展么?
Hinton:用不了幾年,問題就會自行解決。困難都是暫時的。大公司、大學(xué)都已經(jīng)開始培育更多的人才,大學(xué)最終也會聘請更多的教授。
Wired:一些學(xué)者警告說,目前的AI熱潮還會再次進入寒冬。
Hinton:不,不會再有AI寒冬了?,F(xiàn)在AI都已經(jīng)在你的手機里了。當年經(jīng)歷AI寒冬時,人工智能還不是人們?nèi)粘I畹囊徊糠帧6F(xiàn)在AI已經(jīng)是了。
-
AI
+關(guān)注
關(guān)注
87文章
28877瀏覽量
266241 -
TPU
+關(guān)注
關(guān)注
0文章
138瀏覽量
20650
原文標題:Hinton最新專訪:別讓AI解釋自己,AI寒冬不會再來
文章出處:【微信號:worldofai,微信公眾號:worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論