0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

面向機(jī)器學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)突變算法

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-09-08 09:07 ? 次閱讀

為特定任務(wù)尋找最合適的優(yōu)化機(jī)器學(xué)習(xí)算法是一件耗時費(fèi)力的工作,因?yàn)闆]有一種算法能適用于所有任務(wù)。IBM的研究人員提出“神經(jīng)突變”進(jìn)化算法,可以為機(jī)器學(xué)習(xí)任務(wù)自動選擇最合適的算法,選擇速度提升了50000倍,錯誤率僅上升0.6%.

機(jī)器學(xué)習(xí)系統(tǒng)并非是“生而平等”的。沒有一種算法能應(yīng)對所有的機(jī)器學(xué)習(xí)任務(wù),這就讓尋找最優(yōu)的機(jī)器學(xué)習(xí)算法成為一項艱巨又耗時的工作。不過這個問題現(xiàn)在有希望解決了,最近IBM的研究人員開發(fā)了一套能夠自動選擇AI優(yōu)化算法的系統(tǒng)。

IBM愛爾蘭研究院的數(shù)據(jù)科學(xué)家Martin Wistuba,在其近日發(fā)表的博客文章中介紹了自己開發(fā)的這套系統(tǒng)。他聲稱,該系統(tǒng)將自動選擇優(yōu)化AI算法的速度提升了5萬倍,錯誤率僅上升了0.6%。

Wistuba表示,這套進(jìn)化算法系統(tǒng)能將選擇適當(dāng)?shù)臋C(jī)器學(xué)習(xí)架構(gòu)的時間縮減至幾個小時,讓每個人都能有條件對深度學(xué)習(xí)網(wǎng)絡(luò)架構(gòu)進(jìn)行優(yōu)化。

面向機(jī)器學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)突變算法

該方法將卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)視為神經(jīng)細(xì)胞序列,然后應(yīng)用一系列突變,以找到一種結(jié)構(gòu),可以提升給定數(shù)據(jù)集和機(jī)器學(xué)習(xí)任務(wù)的神經(jīng)網(wǎng)絡(luò)的性能。

這種方法大大縮短了網(wǎng)絡(luò)訓(xùn)練時間。這些突變會改變網(wǎng)絡(luò)結(jié)構(gòu),但不會改變網(wǎng)絡(luò)的預(yù)測,網(wǎng)絡(luò)的結(jié)構(gòu)變化可能包括添加新的層、添加新連接或擴(kuò)展內(nèi)核或現(xiàn)有層。

保留原函數(shù)的神經(jīng)網(wǎng)絡(luò)突變示例。右側(cè)的體系結(jié)構(gòu)是突變后的網(wǎng)絡(luò),但與左側(cè)的體系結(jié)構(gòu)具有相同的預(yù)測結(jié)果(由相同顏色表示)

實(shí)驗(yàn)評估:速度提升5萬倍,錯誤率僅上升0.6%

實(shí)驗(yàn)中,研究人員將新神經(jīng)進(jìn)化方法與CIFAR-10和CIFAR-100數(shù)據(jù)集上的圖像分類任務(wù)的其他幾種方法進(jìn)行了比較。這些數(shù)據(jù)集通常用于訓(xùn)練機(jī)器學(xué)習(xí)和計算機(jī)視覺算法的圖像集。

與最先進(jìn)的人工設(shè)計架構(gòu)、基于強(qiáng)化學(xué)習(xí)的架構(gòu)搜索方法、以及基于進(jìn)化算法的其他自動化方法的結(jié)果相比,結(jié)構(gòu)突變算法在分類錯誤上稍高出前幾種方法,但耗時要少得多,比其他方法快了50000倍,錯誤率最多僅比基準(zhǔn)數(shù)據(jù)集CIFAR-10上的最有力競爭對手高出0.6%。

下圖所示為算法的優(yōu)化過程。在圖2中,每個點(diǎn)代表不同的結(jié)構(gòu),連接線代表突變。不同顏色所示為每個結(jié)構(gòu)的精度,x軸表示時間??梢钥吹?,準(zhǔn)確率在前10個小時內(nèi)迅速上升,之后緩慢上升、最后趨于穩(wěn)定。

深度學(xué)習(xí)網(wǎng)絡(luò)設(shè)計的進(jìn)化算法優(yōu)化

圖示為隨時間推移,進(jìn)化算法的優(yōu)化過程

下圖所示為隨著時間的推移,深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)的演變情況。

網(wǎng)絡(luò)結(jié)構(gòu)隨時間的演變,圖中某些中間狀態(tài)未顯示

實(shí)際上,自動算法選擇并不新鮮。谷歌在智能手機(jī)面部識別和目標(biāo)檢測上也在使用這類方法,如果IBM這一的系統(tǒng)性能確實(shí)如其所言,它可能代表著該領(lǐng)域內(nèi)的一次重大進(jìn)步。

將來,研究人員希望將這種優(yōu)化集成到IBM的云服務(wù)中,并將其提供給客戶。此外還計劃將其擴(kuò)展到更大的數(shù)據(jù)集上,如ImageNet和其他類型的數(shù)據(jù),如時間序列和文本、自然語言處理任務(wù)等。

Wistuba將于9月在愛爾蘭都柏林舉行的歐洲機(jī)器學(xué)習(xí)和數(shù)據(jù)庫知識發(fā)現(xiàn)會議(ECML-PKDD)會議上介紹這種方法。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:神經(jīng)網(wǎng)絡(luò)突變自動選擇AI優(yōu)化算法,速度提升50000倍!

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    神經(jīng)網(wǎng)絡(luò)教程(李亞非)

    神經(jīng)元  第3章 EBP網(wǎng)絡(luò)(反向傳播算法)  3.1 含隱層的前饋網(wǎng)絡(luò)學(xué)習(xí)規(guī)則  3.2 Sigmoid激發(fā)函數(shù)下的BP
    發(fā)表于 03-20 11:32

    分享機(jī)器學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的工作流程和相關(guān)操作

    機(jī)器學(xué)習(xí)算法篇--卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)(Convolutional Neural Network)
    發(fā)表于 02-14 16:37

    神經(jīng)網(wǎng)絡(luò)資料

    基于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)算法
    發(fā)表于 05-16 17:25

    機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)參數(shù)的代價函數(shù)

    吳恩達(dá)機(jī)器學(xué)習(xí)筆記之神經(jīng)網(wǎng)絡(luò)參數(shù)的反向傳播算法
    發(fā)表于 05-22 15:11

    【案例分享】基于BP算法的前饋神經(jīng)網(wǎng)絡(luò)

    }或o koko_{k})的誤差神經(jīng)元偏倚的變化量:ΔΘ ΔΘ Delta Theta=學(xué)習(xí)步長η ηeta × ×imes 乘以神經(jīng)元的誤差BP神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 07-21 04:00

    神經(jīng)網(wǎng)絡(luò)和反向傳播算法

    03_深度學(xué)習(xí)入門_神經(jīng)網(wǎng)絡(luò)和反向傳播算法
    發(fā)表于 09-12 07:08

    反饋神經(jīng)網(wǎng)絡(luò)算法是什么

    反饋神經(jīng)網(wǎng)絡(luò)算法
    發(fā)表于 04-28 08:36

    【AI學(xué)習(xí)】第3篇--人工神經(jīng)網(wǎng)絡(luò)

    `本篇主要介紹:人工神經(jīng)網(wǎng)絡(luò)的起源、簡單神經(jīng)網(wǎng)絡(luò)模型、更多神經(jīng)網(wǎng)絡(luò)模型、機(jī)器學(xué)習(xí)的步驟:訓(xùn)練與預(yù)測、訓(xùn)練的兩階段:正向推演與反向傳播、以Te
    發(fā)表于 11-05 17:48

    卷積神經(jīng)網(wǎng)絡(luò)簡介:什么是機(jī)器學(xué)習(xí)

    抽象人工智能 (AI) 的世界正在迅速發(fā)展,人工智能越來越多地支持以前無法實(shí)現(xiàn)或非常難以實(shí)現(xiàn)的應(yīng)用程序。本系列文章解釋了卷積神經(jīng)網(wǎng)絡(luò) (CNN) 及其在 AI 系統(tǒng)中機(jī)器學(xué)習(xí)中的重要性。CNN 是從
    發(fā)表于 02-23 20:11

    BP神經(jīng)網(wǎng)絡(luò)模型與學(xué)習(xí)算法

    BP神經(jīng)網(wǎng)絡(luò)模型與學(xué)習(xí)算法
    發(fā)表于 09-08 09:42 ?10次下載
    BP<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>模型與<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>算法</b>

    為什么使用機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)以及需要了解的八種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

    機(jī)器學(xué)習(xí)已經(jīng)在各個行業(yè)得到了大規(guī)模的廣泛應(yīng)用,并為提升業(yè)務(wù)流程的效率、提高生產(chǎn)率做出了極大的貢獻(xiàn)。這篇文章主要介紹了機(jī)器學(xué)習(xí)中最先進(jìn)的算法
    的頭像 發(fā)表于 01-10 16:30 ?1.2w次閱讀
    為什么使用<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>以及需要了解的八種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>結(jié)構(gòu)

    基于脈沖神經(jīng)網(wǎng)絡(luò)的遷移學(xué)習(xí)算法

    使用脈沖序列進(jìn)行數(shù)據(jù)處理的脈沖神經(jīng)網(wǎng)絡(luò)具有優(yōu)異的低功耗特性,但由于學(xué)習(xí)算法不成熟,多層網(wǎng)絡(luò)練存在收斂困難的問題。利用反向傳播網(wǎng)絡(luò)具有
    發(fā)表于 05-24 16:03 ?15次下載

    什么是神經(jīng)網(wǎng)絡(luò)?什么是卷積神經(jīng)網(wǎng)絡(luò)?

    在介紹卷積神經(jīng)網(wǎng)絡(luò)之前,我們先回顧一下神經(jīng)網(wǎng)絡(luò)的基本知識。就目前而言,神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)算法的核心,我們所熟知的很多深度
    的頭像 發(fā)表于 02-23 09:14 ?3100次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)算法機(jī)器算法

    卷積神經(jīng)網(wǎng)絡(luò)算法機(jī)器算法嗎? 卷積神經(jīng)網(wǎng)絡(luò)算法機(jī)器
    的頭像 發(fā)表于 08-21 16:49 ?736次閱讀

    神經(jīng)網(wǎng)絡(luò)算法的優(yōu)缺點(diǎn)有哪些

    神經(jīng)網(wǎng)絡(luò)算法是一種模擬人腦神經(jīng)元結(jié)構(gòu)的計算模型,廣泛應(yīng)用于機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、圖像識別、語音識別
    的頭像 發(fā)表于 07-03 09:47 ?514次閱讀