0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)與“老式AI”結(jié)合,MIT和IBM聯(lián)合解決深度學(xué)習(xí)痛點(diǎn)

工程師鄧生 ? 來源:量子位 ? 作者:曉查 ? 2020-12-22 16:49 ? 次閱讀

現(xiàn)在的AI神經(jīng)網(wǎng)絡(luò)的天下,但科學(xué)家們正在嘗試將神經(jīng)網(wǎng)絡(luò)與“老式AI”結(jié)合。

這里說的“老式AI”是上世紀(jì)70年代流行的“符號主義”。在幾十年前遭遇失敗后,“連接主義”取代其成為主流。

但是,越來越多的科學(xué)家注意到,將二者結(jié)合才會讓AI發(fā)揮出更強(qiáng)大的威力。

讓連接主義給符號主義“打工”

幾年前,科學(xué)家從小鴨子身上學(xué)到了一樣不尋常的東西。如果小鴨子出生后先看到的是兩個(gè)相似的物體,那么之后會對相似物體產(chǎn)生更多的偏好。

小鴨毫不費(fèi)力地做的事情對于人工智能來說是很難的,尤其是深度神經(jīng)網(wǎng)絡(luò)這一AI分支。

如果交給符號AI,它會怎么做?符號AI會處理物體的名稱作為知識庫,并給“相似”做出定義作為命題。

憑借其知識庫和命題,符號AI采用推理引擎的邏輯規(guī)則來回答問題。

但符號AI缺點(diǎn)在于,要實(shí)現(xiàn)更復(fù)雜的推理需要龐大的知識庫(人工構(gòu)建),如果AI遇到知識庫中沒有的形狀將無法處理。

連接主義利用知識進(jìn)行訓(xùn)練,讓神經(jīng)網(wǎng)絡(luò)具有學(xué)習(xí)能力,但容易受到對抗攻擊。

于是將符號主義和連接主義結(jié)合起來的混合式神經(jīng)-符號AI(neurosymbolic AI)應(yīng)運(yùn)而生。

科學(xué)家用深度神經(jīng)網(wǎng)絡(luò)來構(gòu)建符號AI所需的知識庫和命題,省去了人工預(yù)設(shè)的難題,然后使用符號AI對任務(wù)進(jìn)行推理。

解決李飛飛2016年難題

2016年,李飛飛等人提出了組合語言和基本視覺推理(CLEVR)數(shù)據(jù)集,要求AI回答由計(jì)算機(jī)生成的簡單3D形狀圖像相關(guān)問題。

使用復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)可以解決此問題。但是,IBM、MIT和DeepMind的研究人員提出了一種截然不同的解決方案,顯示出符號AI的強(qiáng)大能力。該方法相關(guān)論文已經(jīng)被ICLR 2019收錄。

在這篇論文中,他們將問題分解為符號AI熟悉的較小部分。

這套系統(tǒng)首先查看圖像并表征3D形狀及其屬性,由此生成知識庫。然后,它將問題變成一個(gè)可以在知識庫上運(yùn)行并產(chǎn)生答案的符號程序。

過去,在符號AI中,需要讓人類程序員去手動輸入知識庫,現(xiàn)在研究人員希望由神經(jīng)網(wǎng)絡(luò)代替人類這項(xiàng)工作。

他們先通過使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)解決了第一個(gè)問題,識別目標(biāo)的顏色、形狀、材質(zhì)等屬性。

然后使用遞歸神經(jīng)網(wǎng)絡(luò)(RNN)發(fā)現(xiàn)順序輸入中的模式。這個(gè)模塊負(fù)責(zé)接收自然語言問題并將其轉(zhuǎn)換為符號程序形式的問題。

整個(gè)過程類似于按需生成知識庫,并讓推理引擎在知識庫上回答問題。

最終,這種混合AI在從未見過的問題和圖像上進(jìn)行測試,準(zhǔn)確率達(dá)98.9%,擊敗了人類。人類只能回答正確92.6%的問題。

202012222996_8156.jpg

更好的是,混合AI只需要純粹深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù)的10%。混合AI還具有可解釋性,如果發(fā)生錯(cuò)誤,則更容易發(fā)現(xiàn)問題所在。

挑戰(zhàn)更高難度

搞定CLEVR數(shù)據(jù)集后,現(xiàn)在神經(jīng)-符號AI正在解決更為棘手的問題。

2019年,在李飛飛CLEVR數(shù)據(jù)集的基礎(chǔ)上,DeepMind、MIT、哈佛大學(xué)和IBM設(shè)計(jì)了一個(gè)更加復(fù)雜的挑戰(zhàn)CLEVRER:讓AI基于視頻而不是圖像來回答問題。

視頻中會出現(xiàn)CLEVR數(shù)據(jù)集中的目標(biāo)類型,但是這些目標(biāo)會移動甚至發(fā)生碰撞,而且問題更加棘手。

有些問題是描述性的,比如:視頻結(jié)束時(shí)有多少金屬物體在移動?

有些問題則需要預(yù)測,比如:接下來將發(fā)生哪個(gè)事件?[a]綠色圓柱體和球體碰撞,[b]綠色圓柱體與正方體碰撞。

甚至還有些問題是視頻中沒有發(fā)生的(反事實(shí)),比如:沒有青色圓柱體,將不會發(fā)生什么?[a]球體和立方體碰撞, [b]球體和青色圓柱體碰撞, [c]立方體和青色圓柱體碰撞。

對于當(dāng)今的深度神經(jīng)網(wǎng)絡(luò)來說,這種隨時(shí)間變化的因果關(guān)系是非常困難的,這主要表現(xiàn)在發(fā)現(xiàn)數(shù)據(jù)的靜態(tài)模式方面。

為了解決這個(gè)問題,團(tuán)隊(duì)擴(kuò)充了之前解決CLEVR的方案。

首先,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)將視頻片段分解為目標(biāo)的逐幀表示,然后被饋送到另一個(gè)神經(jīng)網(wǎng)絡(luò),學(xué)習(xí)分析這些目標(biāo)的運(yùn)動以及它們?nèi)绾蜗嗷ビ绊?,并可以預(yù)測目標(biāo)的運(yùn)動和碰撞。

這兩個(gè)模塊共同構(gòu)成了知識庫。其他兩個(gè)模塊處理問題并將其應(yīng)用于生成的知識庫。

該團(tuán)隊(duì)的解決方案在回答描述性問題方面的準(zhǔn)確性約為88%,對于預(yù)測性問題的準(zhǔn)確性約為83%,對于反事實(shí)問題的準(zhǔn)確性約為74%。

讓AI學(xué)會提問

提出好問題是機(jī)器在人類的另一項(xiàng)技能。這是一種不斷學(xué)習(xí)世界的方式,而不必等待大量的樣本。沒有任何一種機(jī)器可以接近人類提問的能力。

而神經(jīng)-符號AI展現(xiàn)出了這方面的能力。

紐約大學(xué)Brenden Lake助理教授和他的學(xué)生Wang Ziyun構(gòu)建了一種混合AI,來玩一種需要主動提問的游戲——海戰(zhàn)棋(Battleship)。

海戰(zhàn)棋是一種猜謎式的攻防游戲,一方在棋盤上隱藏自己的“戰(zhàn)艦”(長度不等),另一方負(fù)責(zé)攻擊。

攻擊方可以翻看某個(gè)方塊下是否有“戰(zhàn)艦”的一部分,或者直接向?qū)Ψ教釂枺骸按卸嚅L”、“所有三艘船的尺寸都一樣嗎”,諸如此類的問題 。以此來猜測船只的位置。

202012227506_5269.jpg

Lake和Wang分別用兩種不同方式來訓(xùn)練游戲AI。

一種是監(jiān)督學(xué)習(xí),向神經(jīng)網(wǎng)絡(luò)展示棋盤和人類提出的好問題。最終神經(jīng)網(wǎng)絡(luò)學(xué)會了提問,但是很少有創(chuàng)造力。

另一種是強(qiáng)化學(xué)習(xí)。在這種訓(xùn)練中,每當(dāng)神經(jīng)網(wǎng)絡(luò)提出一個(gè)有助于找到戰(zhàn)艦的問題時(shí),就會得到獎勵(lì)。

神經(jīng)網(wǎng)絡(luò)最終學(xué)會了提出正確的問題,既有用又富有創(chuàng)造力。

Lake以前曾使用純粹的符號方法解決了該問題,對于給定的棋盤狀態(tài),符號AI必須在巨大空間中搜索一個(gè)好問題,這讓它變得極其緩慢。

但是,神經(jīng)-符號AI的速度非常快。經(jīng)過訓(xùn)練后,深度神經(jīng)網(wǎng)絡(luò)在產(chǎn)生問題方面遠(yuǎn)遠(yuǎn)勝過純粹的符號AI。

202012226833_5925.jpg

下一步:自動駕駛

MIT-IBM Watson AI實(shí)驗(yàn)室的David Cox團(tuán)隊(duì)希望將這種混合AI用于自動駕駛技術(shù)。

自動駕駛AI需要神經(jīng)網(wǎng)絡(luò)經(jīng)過訓(xùn)練來識別其環(huán)境中的物體,并采取適當(dāng)?shù)拇胧?。如果神?jīng)網(wǎng)絡(luò)在訓(xùn)練中做錯(cuò)了什么,例如撞到行人,就會受到懲罰。

另一位小組成員Nathan Fulton解釋這種機(jī)制:“為了學(xué)會不做壞事,它必須做壞事,體驗(yàn)過那些壞事,然后在做壞事之前找出30個(gè)步驟,防止自己陷入困境?!?/p>

因此,AI學(xué)習(xí)安全駕駛需要大量的訓(xùn)練數(shù)據(jù),而這些“壞事”讓AI很難在現(xiàn)實(shí)世界中訓(xùn)練出來。

Fulton和他的同事正在研究一種神經(jīng)-符號AI方法,克服這種局限性。AI的符號部分對現(xiàn)實(shí)世界的某些危險(xiǎn)行為做出限制,來約束深度網(wǎng)絡(luò)的行為。

從一開始就排除某些選擇,這種簡單的符號干預(yù)大大減少了訓(xùn)練AI所需的數(shù)據(jù)量。

“如果智能體不需要遇到一堆壞狀態(tài),那么它就只需要更少的數(shù)據(jù),”Fulton說。

盡管該項(xiàng)目仍未準(zhǔn)備好在實(shí)驗(yàn)室外使用,但Cox設(shè)想了一個(gè)未來,具有神經(jīng)-符號AI的汽車將可以在現(xiàn)實(shí)世界中學(xué)習(xí),而符號組件將成為防止不良駕駛的保障。

原文地址:

https://knowablemagazine.org/article/technology/2020/what-is-neurosymbolic-ai

論文地址:

https://arxiv.org/abs/1910.01442

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • IBM
    IBM
    +關(guān)注

    關(guān)注

    3

    文章

    1730

    瀏覽量

    74480
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4717

    瀏覽量

    100018
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    28877

    瀏覽量

    266248
  • MIT
    MIT
    +關(guān)注

    關(guān)注

    3

    文章

    253

    瀏覽量

    23312
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5422

    瀏覽量

    120593
收藏 人收藏

    評論

    相關(guān)推薦

    殘差網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)

    殘差網(wǎng)絡(luò)(Residual Network,通常簡稱為ResNet) 是深度神經(jīng)網(wǎng)絡(luò)的一種 ,其獨(dú)特的結(jié)構(gòu)設(shè)計(jì)在解決深層網(wǎng)絡(luò)訓(xùn)練中的梯度消失和梯度爆炸問題上取得了顯著的突破,并因此成為
    的頭像 發(fā)表于 07-11 18:13 ?729次閱讀

    pytorch中有神經(jīng)網(wǎng)絡(luò)模型嗎

    處理、語音識別等領(lǐng)域取得了顯著的成果。PyTorch是一個(gè)開源的深度學(xué)習(xí)框架,由Facebook的AI研究團(tuán)隊(duì)開發(fā)。它以其易用性、靈活性和高效性而受到廣泛歡迎。在PyTorch中,有許多預(yù)訓(xùn)練的
    的頭像 發(fā)表于 07-11 09:59 ?527次閱讀

    簡單認(rèn)識深度神經(jīng)網(wǎng)絡(luò)

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)作為機(jī)器學(xué)習(xí)領(lǐng)域中的一種重要技術(shù),特別是在深度學(xué)習(xí)領(lǐng)域,已經(jīng)取得了顯著的
    的頭像 發(fā)表于 07-10 18:23 ?738次閱讀

    深度神經(jīng)網(wǎng)絡(luò)概述及其應(yīng)用

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)作為機(jī)器學(xué)習(xí)的一種復(fù)雜形式,是廣義人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks, ANNs)的
    的頭像 發(fā)表于 07-04 16:08 ?346次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指傳統(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時(shí),我們需
    的頭像 發(fā)表于 07-04 13:20 ?335次閱讀

    深度神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)方法

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)作為人工智能領(lǐng)域的重要技術(shù)之一,通過模擬人腦神經(jīng)元之間的連接,實(shí)現(xiàn)了對復(fù)雜數(shù)據(jù)的自主學(xué)習(xí)和智能判斷。其設(shè)計(jì)方法不僅涉
    的頭像 發(fā)表于 07-04 13:13 ?250次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    深度學(xué)習(xí)領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks, RNN)是兩種
    的頭像 發(fā)表于 07-03 16:12 ?978次閱讀

    bp神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種常見的前饋神經(jīng)網(wǎng)絡(luò),它使用反向傳播算法來訓(xùn)練網(wǎng)絡(luò)。雖然BP神經(jīng)網(wǎng)絡(luò)在某些方面與
    的頭像 發(fā)表于 07-03 10:14 ?378次閱讀

    深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)作為其中的重要分支,已經(jīng)在多個(gè)領(lǐng)域取得了顯著的應(yīng)用成果。從圖像識別、語音識別
    的頭像 發(fā)表于 07-02 18:19 ?561次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    化能力。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,神經(jīng)網(wǎng)絡(luò)已經(jīng)成為人工智能領(lǐng)域的重要技術(shù)之一。卷積神經(jīng)網(wǎng)絡(luò)和BP神經(jīng)
    的頭像 發(fā)表于 07-02 14:24 ?1030次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型有哪些

    、Sigmoid或Tanh。 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN): 卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)中最重
    的頭像 發(fā)表于 07-02 10:00 ?550次閱讀

    利用深度循環(huán)神經(jīng)網(wǎng)絡(luò)對心電圖降噪

    具體的軟硬件實(shí)現(xiàn)點(diǎn)擊 http://mcu-ai.com/ MCU-AI技術(shù)網(wǎng)頁_MCU-AI 我們提出了一種利用由長短期記憶 (LSTM) 單元構(gòu)建的深度循環(huán)
    發(fā)表于 05-15 14:42

    利用神經(jīng)網(wǎng)絡(luò)對腦電圖(EEG)降噪

    具體的軟硬件實(shí)現(xiàn)點(diǎn)擊http://mcu-ai.com/MCU-AI技術(shù)網(wǎng)頁_MCU-AI人工智能 這個(gè)示例展示了如何使用EEGdenoiseNet基準(zhǔn)數(shù)據(jù)集[1]和深度
    發(fā)表于 04-30 20:40

    詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    在如今的網(wǎng)絡(luò)時(shí)代,錯(cuò)綜復(fù)雜的大數(shù)據(jù)和網(wǎng)絡(luò)環(huán)境,讓傳統(tǒng)信息處理理論、人工智能與人工神經(jīng)網(wǎng)絡(luò)都面臨巨大的挑戰(zhàn)。近些年,深度學(xué)習(xí)逐漸走進(jìn)人們的視線
    的頭像 發(fā)表于 01-11 10:51 ?1609次閱讀
    詳解<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>、<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的應(yīng)用

    淺析深度神經(jīng)網(wǎng)絡(luò)壓縮與加速技術(shù)

    深度神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的一種框架,它是一種具備至少一個(gè)隱層的神經(jīng)網(wǎng)絡(luò)。與淺層神經(jīng)網(wǎng)絡(luò)類似
    的頭像 發(fā)表于 10-11 09:14 ?598次閱讀
    淺析<b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>壓縮與加速技術(shù)