0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種基于微小動(dòng)物(如線蟲)大腦的新型人工智能系統(tǒng)

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來(lái)源:通信信號(hào)處理研究所 ? 作者:通信信號(hào)處理研究 ? 2020-10-30 17:06 ? 次閱讀

從搜索引擎到自動(dòng)駕駛汽車,人工智能已經(jīng)進(jìn)入了我們的日常生活。這與近年來(lái)計(jì)算能力的巨大提升有關(guān)。但是,最新的人工智能研究成果表明,更簡(jiǎn)單、更小的神經(jīng)網(wǎng)絡(luò)可以比以前更好、更高效、更可靠得解決特定任務(wù)。 來(lái)自維也納理工大學(xué)(TU Wien)、奧地利IST和美國(guó)麻省理工學(xué)院(MIT)的一個(gè)國(guó)際研究團(tuán)隊(duì)開發(fā)了一種基于微小動(dòng)物(如線蟲)大腦的新型人工智能系統(tǒng)。 這種新穎的人工智能系統(tǒng)只需幾個(gè)人工神經(jīng)元就能控制車輛。該團(tuán)隊(duì)表示,與之前的深度學(xué)習(xí)模型相比,該系統(tǒng)具有決定性的優(yōu)勢(shì):它能更好地應(yīng)對(duì)嘈雜的輸入信息。此外,由于它的簡(jiǎn)單性,它的運(yùn)作模式可以被詳細(xì)的解釋。它不必被視為一個(gè)復(fù)雜的"黑盒子",它可以被人類理解。 目前,這種新的深度學(xué)習(xí)模型已經(jīng)發(fā)表在《自然機(jī)器智能》雜志上。

向自然學(xué)習(xí)

與活體大腦類似,人工神經(jīng)網(wǎng)絡(luò)由許多單個(gè)細(xì)胞組成。當(dāng)一個(gè)細(xì)胞處于活躍狀態(tài)時(shí),它會(huì)向其他細(xì)胞發(fā)出信號(hào)。下一個(gè)細(xì)胞會(huì)把接收到的所有信號(hào)都結(jié)合起來(lái),以決定自己是否要活躍起來(lái)。一個(gè)細(xì)胞影響下一個(gè)細(xì)胞活動(dòng)的方式?jīng)Q定了神經(jīng)系統(tǒng)的行為——這些參數(shù)在自動(dòng)學(xué)習(xí)過(guò)程中被調(diào)整,直到神經(jīng)網(wǎng)絡(luò)能夠解決特定的任務(wù)。 TU Wien的“網(wǎng)絡(luò)-物理系統(tǒng)”研究小組負(fù)責(zé)人Radu Grosu教授說(shuō):“多年來(lái),我們一直在研究我們可以從自然界中學(xué)習(xí)到什么來(lái)改善深度學(xué)習(xí)。舉例來(lái)說(shuō),線蟲C.elegans的神經(jīng)元的數(shù)量少得驚人,卻仍然能顯現(xiàn)出有趣的行為模式。這是因?yàn)榫€蟲的神經(jīng)系統(tǒng)處理信息的方式高效而和諧?!? 麻省理工學(xué)院計(jì)算機(jī)科學(xué)與人工智能實(shí)驗(yàn)室(CSAIL)主任Daniela Rus教授說(shuō):“大自然告訴我們,現(xiàn)存的模型還有很多改進(jìn)的空間。因此,我們的目標(biāo)是大規(guī)模降低神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜性并增強(qiáng)其可解釋性?!? 奧地利IST公司總裁Thomas Henzinger教授說(shuō):“受自然界的啟發(fā),我們開發(fā)了新的神經(jīng)元和突觸的數(shù)學(xué)模型?!? TU Wien計(jì)算機(jī)工程研究所和MIT CSAIL的博士后Ramin Hasani博士說(shuō):“單個(gè)細(xì)胞內(nèi)的信號(hào)處理遵循的數(shù)學(xué)原理與之前的深度學(xué)習(xí)模型不同。另外,我們的網(wǎng)絡(luò)是高度稀疏的——這意味著不是每個(gè)單元都與其他每個(gè)單元相連。這也使得網(wǎng)絡(luò)更加簡(jiǎn)單?!?

自主車道保持功能

為了測(cè)試這些新想法,該團(tuán)隊(duì)選擇了一個(gè)特別重要的測(cè)試任務(wù):使自動(dòng)駕駛汽車保持在自己的車道上,神經(jīng)網(wǎng)絡(luò)接收道路的攝像頭圖像作為輸入,然后自動(dòng)決定向右還是向左轉(zhuǎn)向。 TU Wien校友、奧地利IST的博士生Mathias Lechner說(shuō):“當(dāng)今市面上,具有數(shù)百萬(wàn)個(gè)參數(shù)的深度學(xué)習(xí)模型才通常用于學(xué)習(xí)如自動(dòng)駕駛一樣復(fù)雜的任務(wù)。然而,我們的新方法使我們能夠?qū)⒕W(wǎng)絡(luò)的大小減少兩個(gè)數(shù)量級(jí)。我們的系統(tǒng)只使用75000個(gè)可訓(xùn)練參數(shù)。” 麻省理工學(xué)院CSAIL的博士生Alexander Amini解釋說(shuō),新系統(tǒng)由兩部分組成。攝像頭圖像的輸入首先由一個(gè)所謂的卷積神經(jīng)網(wǎng)絡(luò)處理。該網(wǎng)絡(luò)只感知視覺數(shù)據(jù),并從輸入的像素中提取結(jié)構(gòu)特征。它決定了圖像中哪些部分是有趣的、重要的,隨后將信號(hào)傳遞給網(wǎng)絡(luò)的關(guān)鍵部分——引導(dǎo)車輛的“控制系統(tǒng)”。 這兩個(gè)子系統(tǒng)疊加在一起,并同時(shí)進(jìn)行訓(xùn)練。該團(tuán)隊(duì)收集了許多大波士頓地區(qū)人類駕駛的交通視頻,并將這些視頻與不同特定情況下如何轉(zhuǎn)向汽車的信息一起輸入網(wǎng)絡(luò)——直到系統(tǒng)學(xué)會(huì)了自動(dòng)將圖像與適當(dāng)?shù)霓D(zhuǎn)向方向連接起來(lái),并能獨(dú)立處理新情況。 系統(tǒng)的控制部分(稱為神經(jīng)回路策略,或NCP),將感知模塊的數(shù)據(jù)轉(zhuǎn)化為轉(zhuǎn)向指令,并只由19個(gè)神經(jīng)元組成。Mathias Lechner解釋說(shuō),NCP比以前最先進(jìn)的模型所能做到的要小3個(gè)數(shù)量級(jí)。

因果關(guān)系和可解釋性

新的深度學(xué)習(xí)模型已經(jīng)在一輛真正的自動(dòng)汽車上進(jìn)行了測(cè)試。 Ramin Hasani說(shuō):“我們的模型可以讓我們研究網(wǎng)絡(luò)在駕駛時(shí)在關(guān)注什么。我們的網(wǎng)絡(luò)關(guān)注著的是攝像頭畫面中非常特定的部分:路邊和地平線。這種行為是非常理想的,它在人工智能系統(tǒng)中是獨(dú)一無(wú)二的。此外,我們還可以識(shí)別每一個(gè)細(xì)胞在任何駕駛決策中的作用。我們可以理解單個(gè)細(xì)胞的功能及其行為。實(shí)現(xiàn)這種程度的可解釋性是大型深度學(xué)習(xí)模型不可能做到的?!?

穩(wěn)健性

Mathias Lechner說(shuō):“為了測(cè)試與之前的深度模型相比,NCPs的穩(wěn)健性如何,我們干擾了輸入圖像,并評(píng)估了模型處理噪聲的能力。雖然噪音是其他深度神經(jīng)網(wǎng)絡(luò)無(wú)法克服的問(wèn)題,但我們的NCPs表現(xiàn)出了對(duì)輸入噪音的強(qiáng)大抵抗力。這一屬性是新型神經(jīng)模型和架構(gòu)的直接結(jié)果?!? Ramin Hasani說(shuō):"可解釋性和穩(wěn)健性是我們新模型的兩大優(yōu)勢(shì)。但我們的模型還有更多的優(yōu)勢(shì)。使用我們的新方法還可以減少訓(xùn)練時(shí)間,以及在相對(duì)簡(jiǎn)單的系統(tǒng)中實(shí)現(xiàn)AI。我們的NCP可以在廣泛的潛在應(yīng)用(從倉(cāng)庫(kù)的自動(dòng)化工作到機(jī)器人運(yùn)動(dòng))中實(shí)現(xiàn)模仿學(xué)習(xí)。這個(gè)新的發(fā)現(xiàn)為人工智能界開辟了重要的新視角:生物神經(jīng)系統(tǒng)中的計(jì)算原理可以成為創(chuàng)建高性能,可解釋的人工智能的重要資源——成為迄今為止所使用的黑盒機(jī)器學(xué)習(xí)系統(tǒng)的替代方案。"

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:受小動(dòng)物大腦結(jié)構(gòu)啟發(fā),研究人員開發(fā)出新的深度學(xué)習(xí)模型:更少神經(jīng)元,更多智能

文章出處:【微信號(hào):tyutcsplab,微信公眾號(hào):智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第6章人AI與能源科學(xué)讀后感

    幸得好書,特此來(lái)分享。感謝平臺(tái),感謝作者。受益匪淺。 在閱讀《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》的第6章后,我深刻感受到人工智能在能源科學(xué)領(lǐng)域中的巨大潛力和廣泛應(yīng)用。這
    發(fā)表于 10-14 09:27

    AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第4章-AI與生命科學(xué)讀后感

    很幸運(yùn)社區(qū)給我個(gè)閱讀此書的機(jī)會(huì),感謝平臺(tái)。 《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第4章關(guān)于AI與生命科學(xué)的部分,為我們揭示了人工智能技術(shù)在生命科學(xué)領(lǐng)域中的廣泛應(yīng)用和深遠(yuǎn)影響。在
    發(fā)表于 10-14 09:21

    《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第人工智能驅(qū)動(dòng)的科學(xué)創(chuàng)新學(xué)習(xí)心得

    的發(fā)展機(jī)遇。同時(shí),這也要求科研人員、政策制定者和社會(huì)各界共同努力,構(gòu)建個(gè)健康、包容的AI科研生態(tài)系統(tǒng)。 總之,《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》的第章為我打開了
    發(fā)表于 10-14 09:12

    risc-v在人工智能圖像處理應(yīng)用前景分析

    人工智能推薦系統(tǒng)中強(qiáng)大的圖形處理器(GPU)爭(zhēng)高下。其獨(dú)特的設(shè)計(jì)使得該處理器在功耗受限的條件下仍能實(shí)現(xiàn)高性能的圖像處理任務(wù)。 Ceremorphic公司 :該公司開發(fā)的分層學(xué)習(xí)處理器結(jié)合了
    發(fā)表于 09-28 11:00

    名單公布!【書籍評(píng)測(cè)活動(dòng)NO.44】AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新

    ! 《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》 這本書便將為讀者徐徐展開AI for Science的美麗圖景,與大家起去了解: 人工智能究竟幫科學(xué)家做了什么? 人工智能
    發(fā)表于 09-09 13:54

    大小鼠也需要跑步機(jī)——ZL-013小動(dòng)物實(shí)驗(yàn)跑步機(jī)

    簡(jiǎn)單介紹: 小動(dòng)物實(shí)驗(yàn)跑步機(jī)(動(dòng)物實(shí)驗(yàn)跑臺(tái)),可實(shí)現(xiàn)大、小鼠通用。 所有參數(shù)設(shè)置均在儀器上的觸摸屏上完成,方便快捷。觸屏還能夠監(jiān)測(cè)實(shí)驗(yàn)進(jìn)度,顯示實(shí)驗(yàn)結(jié)果,方便實(shí)時(shí)觀察數(shù)據(jù),修正實(shí)驗(yàn)。小動(dòng)物實(shí)驗(yàn)跑步機(jī)
    發(fā)表于 08-26 15:38

    報(bào)名開啟!深圳(國(guó)際)通用人工智能大會(huì)將啟幕,國(guó)內(nèi)外大咖齊聚話AI

    呈現(xiàn)、產(chǎn)業(yè)展覽、技術(shù)交流、學(xué)術(shù)論壇于體的世界級(jí)人工智能合作交流平臺(tái)。本次大會(huì)暨博覽會(huì)由工業(yè)和信息化部政府采購(gòu)中心、廣東省工商聯(lián)、前海合作區(qū)管理局、深圳市工信局等單位指導(dǎo),深圳市人工智能產(chǎn)業(yè)協(xié)會(huì)主辦
    發(fā)表于 08-22 15:00

    FPGA在人工智能中的應(yīng)用有哪些?

    FPGA(現(xiàn)場(chǎng)可編程門陣列)在人工智能領(lǐng)域的應(yīng)用非常廣泛,主要體現(xiàn)在以下幾個(gè)方面: 、深度學(xué)習(xí)加速 訓(xùn)練和推理過(guò)程加速:FPGA可以用來(lái)加速深度學(xué)習(xí)的訓(xùn)練和推理過(guò)程。由于其高并行性和低延遲特性
    發(fā)表于 07-29 17:05

    Whatsapp正在開發(fā)一種新的生成人工智能功能

    據(jù)悉,Whatsapp正在開發(fā)一種新的生成人工智能功能,該功能應(yīng)允許用戶制作自己的個(gè)性化頭像,用于任何想象中的場(chǎng)景。WABetaInfo在新的Android版WhatsApp測(cè)試版2.24.14.7
    的頭像 發(fā)表于 07-14 17:50 ?925次閱讀

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V2)

    12分32秒 https://t.elecfans.com/v/25611.html *附件:芯片模組外觀檢測(cè)實(shí)訓(xùn).pdf 人工智能 機(jī)器人:基于融合系統(tǒng)的機(jī)器人仿真實(shí)訓(xùn) 38分02秒 https
    發(fā)表于 05-10 16:46

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V1)

    /25611.html *附件:芯片模組外觀檢測(cè)實(shí)訓(xùn).pdf 人工智能 機(jī)器人:基于融合系統(tǒng)的機(jī)器人仿真實(shí)訓(xùn) 38分02秒 https://t.elecfans.com/v/25521.html *附件:機(jī)器人
    發(fā)表于 04-01 10:40

    嵌入式人工智能的就業(yè)方向有哪些?

    嵌入式人工智能的就業(yè)方向有哪些? 在新輪科技革命與產(chǎn)業(yè)變革的時(shí)代背景下,嵌入式人工智能成為國(guó)家新型基礎(chǔ)建設(shè)與傳統(tǒng)產(chǎn)業(yè)升級(jí)的核心驅(qū)動(dòng)力。同時(shí)在此背景驅(qū)動(dòng)下,眾多名企也紛紛在嵌入式
    發(fā)表于 02-26 10:17

    生成式人工智能和感知式人工智能的區(qū)別

    生成新的內(nèi)容和信息的人工智能系統(tǒng)。這些系統(tǒng)能夠利用已有的數(shù)據(jù)和知識(shí)來(lái)生成全新的內(nèi)容,如圖片、音樂(lè)、文本等。生成式人工智能通?;谏疃葘W(xué)習(xí)技術(shù),
    的頭像 發(fā)表于 02-19 16:43 ?1467次閱讀

    基于人工智能算法的推薦系統(tǒng)原理及優(yōu)勢(shì)

    推薦系統(tǒng)一種人工智能人工智能算法,通常與機(jī)器學(xué)習(xí)相關(guān),使用大數(shù)據(jù)向消費(fèi)者建議或推薦其他產(chǎn)品。這些推薦可以基于各種標(biāo)準(zhǔn),包括過(guò)去的購(gòu)買、搜索歷史記錄、人口統(tǒng)計(jì)信息和其他因素。推薦
    發(fā)表于 11-20 11:40 ?2266次閱讀
    基于<b class='flag-5'>人工智能</b>算法的推薦<b class='flag-5'>系統(tǒng)</b>原理及優(yōu)勢(shì)

    人工智能大模型、應(yīng)用場(chǎng)景、應(yīng)用部署教程超詳細(xì)資料

    人工智能是IC行業(yè)近幾年的熱詞,目前此技術(shù)已經(jīng)有很多成熟的模型和落地案例。在此跟大家做個(gè)分享,更多詳細(xì)資料,請(qǐng)自行搜索:【展銳坦克邦】,坦克邦-智算天地集算法模型、部署說(shuō)明于體,為廣大客戶提供了
    發(fā)表于 11-13 14:49