0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI不會再有寒冬 別讓AI解釋自己

jmiy_worldofai ? 來源:cg ? 2018-12-17 14:39 ? 次閱讀

今天,《連線》發(fā)表了一篇專訪Geoffrey Hinton的長文。

在這次加拿大G7人工智能會議上的訪談里,Hinton談到了對谷歌軍方合同的“私下”抗議,還提出了對現(xiàn)在AI研究的一些看法,比如:

不要讓AI解釋自己,那簡直是個災(zāi)難。人類大多數(shù)時候都沒法解釋自己。

發(fā)展AI需要新型的計算硬件(他指的并不是TPU)。

我們在研究中應(yīng)該追求“新想法”,不能一味看效果。從長遠來看,一個全新的想法比一個微小的改進更有影響力。

另外,Hinton還說:不,不會再有AI寒冬了。

以下是采訪實錄:

Wired:加拿大***特魯多在G7大會上說,人工智能帶來了一些道德挑戰(zhàn),對此需要做更多工作,你怎么想?

Hinton:我一直很擔(dān)心致命自主武器的濫用。我認為,應(yīng)該有一個類似于日內(nèi)瓦公約的東西,像禁止化學(xué)武器一樣禁止它們。就算不是每個國家都簽署這個公約,實際上它也會起到像道德旗幟一樣的作用。誰沒簽?zāi)闶悄芸吹降摹?/p>

Wired:有一封抗議Google為國防部提供無人機圖像識別服務(wù)的公開信,有4500名你的同事簽了名。你簽了嗎?

Hinton:作為一名Google高管,我認為我不應(yīng)該公開表達對公司的不滿,所以,我私下表達。我沒有簽公開信,而是找(Google聯(lián)合創(chuàng)始人)謝爾蓋·布林談了談。他說他對這個事情也不滿,所以,這不是他們的追求。

Wired:Google決定履行完這份合同,但是不會續(xù)簽,還發(fā)布了一份AI指導(dǎo)方針,其中就包含了不能把這項技術(shù)用于武器。

Hinton:我認為Google的選擇是正確的。各種各樣的東西都需要云計算,想弄清底線設(shè)在哪確實很難。我對Google設(shè)置的底線很滿意,那些原則我認為很有道理。

Wired:在日常場景里,比如在社會服務(wù)、醫(yī)療等領(lǐng)域用軟件做決策的時候,人工智能也會帶來道德問題。我們應(yīng)該當心什么?

Hinton:我的專業(yè)領(lǐng)域是讓這個技術(shù)管用,不是社會政策。這里面確實有一點和我的專業(yè)技能相關(guān),就是判斷監(jiān)管者該不該堅持要求你能解釋AI系統(tǒng)的工作原理。我認為那完全是個災(zāi)難。

在大多數(shù)事情上,人類都不能解釋自己的原理。你招人的時候,是基于那些可以量化的東西來做判斷,再加上各種”直覺”。人們根本不知道自己是怎么做到的。如果你讓人類對自己的決定做出解釋,就相當于逼他們編故事。

神經(jīng)網(wǎng)絡(luò)的問題也一樣。你訓(xùn)練了一個神經(jīng)網(wǎng)絡(luò),它學(xué)習(xí)的是幾十億數(shù)字,代表著從訓(xùn)練數(shù)據(jù)中提取的知識,輸入一張圖片,它給出正確的決定,比如說這是不是一個行人。但如果你要問“它為什么這么想”……如果圖片里有沒有行人能通過任何簡單的規(guī)則來判斷的話,這個問題早就解決了。

Wired:所以,我們怎么會知道什么時候能信任這些系統(tǒng)?

Hinton:應(yīng)該根據(jù)表現(xiàn)來管理它們。你可以用實驗來檢驗有沒有偏見。對于無人車,我認為人們現(xiàn)在已經(jīng)算接受了,就算不知道一輛無人車怎么做到的,如果它發(fā)生的事故比人類司機少,那就是好事。我認為我們要像對人一樣來對待這個問題:看他們表現(xiàn)如何。

△https://arxiv.org/abs/1807.04587

Wired:在你上周發(fā)表的一篇論文中,提及應(yīng)該進一步研究大腦中的學(xué)習(xí)算法。這是為什么?

Hinton:大腦和現(xiàn)在大多數(shù)神經(jīng)網(wǎng)絡(luò)都不一樣。人類大腦有大約100萬億個突觸,而人工神經(jīng)網(wǎng)絡(luò)的權(quán)重通常要小1萬倍。大腦使用大量的突觸,從很少的樣本中盡可能多的學(xué)習(xí)。而深度學(xué)習(xí)則是利用更少的神經(jīng)元連接,從大量的樣本中進行學(xué)習(xí)。

我認為大腦并不關(guān)注如何把大量知識壓縮成幾個突觸的連接,而是關(guān)注如何使用大量的連接,快速的提取知識。

Wired:那應(yīng)該如何構(gòu)建更強大的機器學(xué)習(xí)系統(tǒng)?

Hinton:我們需要轉(zhuǎn)向另一種計算機。幸運的是,我這里就有一個。

(Hinton說罷把手伸到包里,掏出一塊耀眼的大芯片。這個芯片是英國初創(chuàng)公司Graphcore的原型產(chǎn)品,這家公司致力于為機器/深度學(xué)習(xí)算法開發(fā)新型處理器。)

△漂亮得不像實力派

大多數(shù)用來運行神經(jīng)網(wǎng)絡(luò)的計算機,甚至包括Google的專用硬件,都得使用RAM(來存儲正在使用的程序)。從RAM中獲取神經(jīng)網(wǎng)絡(luò)的權(quán)重代價高昂,所以一旦軟件獲得了權(quán)重,就會反復(fù)使用很多次。想要改變是一個成本巨大的事情。

而在Graphcore芯片上,權(quán)重存儲在處理器的緩存而不是RAM中,所以不會被移走。因此某些探索會變得更容易。 比如我們可以搞個一萬億個權(quán)重的系統(tǒng),但是每次訓(xùn)練只涉及數(shù)十億的權(quán)重。這種方式更接近大腦。

Wired:AI和機器學(xué)習(xí)的快速增長,是否也帶來了新的挑戰(zhàn)?

Hinton:現(xiàn)在一個巨大的挑戰(zhàn)是,如果你想發(fā)表一篇機器學(xué)習(xí)論文,有一些條條框框的限制。如果你用的方法,看起來效果沒那么好,那就很難發(fā)表。我不認為這能鼓勵人們?nèi)ニ伎既碌姆椒ā?/p>

現(xiàn)在如果你發(fā)送了一個有著全新想法的論文,被接收的可能性非常低,或者會有一些無法理解你想法的初級同行在評審,或者一些看了太多論文的資深評審者,他們都不理解你的論文,并且認為是無稽之談。我認為這非常糟糕。

我們應(yīng)該追求的,特別是在基礎(chǔ)科學(xué)會議上,是一些全新的想法。從長遠來看,一個全新的想法比一個微小的改進更有影響力。出現(xiàn)這個問題的原因,就是資深人士太少,而年輕人太多。

Wired:這會破壞AI領(lǐng)域的進展么?

Hinton:用不了幾年,問題就會自行解決。困難都是暫時的。大公司、大學(xué)都已經(jīng)開始培育更多的人才,大學(xué)最終也會聘請更多的教授。

Wired:一些學(xué)者警告說,目前的AI熱潮還會再次進入寒冬。

Hinton:不,不會再有AI寒冬了?,F(xiàn)在AI都已經(jīng)在你的手機里了。當年經(jīng)歷AI寒冬時,人工智能還不是人們?nèi)粘I畹囊徊糠帧6F(xiàn)在AI已經(jīng)是了。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    28877

    瀏覽量

    266241
  • TPU
    TPU
    +關(guān)注

    關(guān)注

    0

    文章

    138

    瀏覽量

    20650

原文標題:Hinton最新專訪:別讓AI解釋自己,AI寒冬不會再來

文章出處:【微信號:worldofai,微信公眾號:worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    AI調(diào)試工具

    APIAI
    草帽王路飛
    發(fā)布于 :2024年09月02日 11:31:57

    云開發(fā)AI助手

    AI
    草帽王路飛
    發(fā)布于 :2024年07月22日 14:41:54

    視頻3--場景自動化AI助手

    AI
    草帽王路飛
    發(fā)布于 :2024年07月22日 11:16:13

    視頻2--場景自動化AI助手

    AI
    草帽王路飛
    發(fā)布于 :2024年07月22日 11:15:34

    平衡創(chuàng)新與倫理:AI時代的隱私保護和算法公平

    在人工智能技術(shù)飛速發(fā)展的今天,它不僅帶來了前所未有的便利和效率,也暴露出了一系列倫理和隱私問題。從數(shù)據(jù)隱私侵犯到“信息繭房”的形成,再到“大數(shù)據(jù)殺熟”、AI歧視和深度偽造技術(shù)的威脅,AI的應(yīng)用似乎
    發(fā)表于 07-16 15:07

    AI芯片哪里買?

    AI芯片
    芯廣場
    發(fā)布于 :2024年05月31日 16:58:19

    國內(nèi)EDA工具AI技術(shù)應(yīng)用現(xiàn)狀及發(fā)展動態(tài)分析

    今年談EDA工具融入AI已經(jīng)不會再有人表達驚訝了,畢竟國際EDA巨頭們都在持續(xù)做宣傳。IIC Shanghai活動的不少EDA企業(yè)也在談AI。
    發(fā)表于 04-12 10:43 ?606次閱讀
    國內(nèi)EDA工具<b class='flag-5'>AI</b>技術(shù)應(yīng)用現(xiàn)狀及發(fā)展動態(tài)分析

    不會AI的人被淘汰?訊飛AI鼠標AM30助你迎接AI時代

    不會AI的人被淘汰?訊飛智能鼠標助你迎接AI時代 隨著AI時代的到來,人們對于智能助手的需求也日益增長。 想在這個競爭激烈的時代中不被淘汰,就需要一款強大的工具來提升
    的頭像 發(fā)表于 03-23 13:44 ?618次閱讀
    <b class='flag-5'>不會</b>用<b class='flag-5'>AI</b>的人被淘汰?訊飛<b class='flag-5'>AI</b>鼠標AM30助你迎接<b class='flag-5'>AI</b>時代

    ai_reloc_network.h引入后,ai_datatypes_format.h和formats_list.h報錯的原因?

    當準備使用神經(jīng)網(wǎng)絡(luò)的relocatable方式,將ai_reloc_network.h頭文件加入程序編譯后,ai_datatypes_format.h在cubeIDE和Keilc里分別報如下錯誤
    發(fā)表于 03-14 06:23

    NanoEdge AI的技術(shù)原理、應(yīng)用場景及優(yōu)勢

    NanoEdge AI 是一種基于邊緣計算的人工智能技術(shù),旨在將人工智能算法應(yīng)用于物聯(lián)網(wǎng)(IoT)設(shè)備和傳感器。這種技術(shù)的核心思想是將數(shù)據(jù)處理和分析從云端轉(zhuǎn)移到設(shè)備本身,從而減少數(shù)據(jù)傳輸延遲、降低
    發(fā)表于 03-12 08:09

    AI大模型會不會取代電子工程師?

    AI大模型
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年01月02日 15:11:43

    新火種AI|美光、英偉達大漲,AI引爆后,芯片行業(yè)寒冬已過?

    AI需求暴增,芯片行業(yè)寒冬或已過
    的頭像 發(fā)表于 12-22 09:48 ?316次閱讀
    新火種<b class='flag-5'>AI</b>|美光、英偉達大漲,<b class='flag-5'>AI</b>引爆后,芯片行業(yè)<b class='flag-5'>寒冬</b>已過?

    新火種AI|比爾蓋茨表態(tài):生成式AI已成過去接下來是可解釋AI的天下

    作者:小巖 編輯:彩云 根據(jù)財聯(lián)社消息,11月28日,比爾·蓋茨針對AI未來的發(fā)展趨勢發(fā)表了自己的看法。他認為,當下生成式AI的發(fā)展已經(jīng)達到了極限,很難再有突破性的進展。下一個
    的頭像 發(fā)表于 12-06 10:36 ?670次閱讀
    新火種<b class='flag-5'>AI</b>|比爾蓋茨表態(tài):生成式<b class='flag-5'>AI</b>已成過去接下來是可<b class='flag-5'>解釋</b><b class='flag-5'>AI</b>的天下