0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌推出了AdaNet,一個(gè)基于TensorFlow的輕量化框架

zhKF_jqr_AI ? 來(lái)源:未知 ? 作者:李倩 ? 2018-11-05 15:27 ? 次閱讀

集成學(xué)習(xí)是將不同的機(jī)器學(xué)習(xí)模型結(jié)合在一起的創(chuàng)新方法,它廣泛應(yīng)用于神經(jīng)網(wǎng)絡(luò)中,可以收獲很好地表現(xiàn),例如在Netflix Prize和Kaggle競(jìng)賽中都有它的身影。

但是,在實(shí)踐中,這種方法卻很少用到,因?yàn)橛?xùn)練時(shí)間很長(zhǎng),并且在選擇機(jī)器學(xué)習(xí)模型時(shí)需要考慮各種類型的專業(yè)領(lǐng)域。隨著計(jì)算力和各種深度學(xué)習(xí)硬件的出現(xiàn)(例如TPU),機(jī)器學(xué)習(xí)模型會(huì)越來(lái)越豐富,集成現(xiàn)象也會(huì)越來(lái)越多。那么是否有一種工具可以自動(dòng)搜索神經(jīng)網(wǎng)絡(luò)框架,然后學(xué)習(xí)將最佳的幾種模型集合,創(chuàng)造出另一個(gè)高質(zhì)量模型。

最近,谷歌推出了AdaNet,這是一個(gè)基于TensorFlow的輕量化框架,可以自動(dòng)學(xué)習(xí)高質(zhì)量模型,只需人類少量干預(yù)。AdaNet以最近的強(qiáng)化學(xué)習(xí)和基于演化的AutoML為基礎(chǔ),不僅速度快、靈活度高,而且還能保證成功學(xué)習(xí)率。重要的是,AdaNet不僅僅為學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)架構(gòu)提供了通用框架,而且還能學(xué)習(xí)集成,得到更好的模型。

AdaNet使用起來(lái)很方便,并且得到的都是高質(zhì)量模型,為機(jī)器學(xué)習(xí)從業(yè)者節(jié)省了大量時(shí)間,用一種適應(yīng)性算法學(xué)習(xí)將神經(jīng)架構(gòu)看作是子網(wǎng)絡(luò)的集成。AdaNet可以將不同深度和寬度的子網(wǎng)絡(luò)結(jié)合起來(lái),創(chuàng)造出一個(gè)多樣化的集成模型,減少參數(shù)的數(shù)量提高性能。

AdaNet逐漸生成神經(jīng)網(wǎng)絡(luò)集成的過(guò)程,在每一次迭代,它會(huì)計(jì)算每個(gè)候選網(wǎng)絡(luò)的集成損失,選擇最佳的那個(gè)加入到下次迭代中

快速易用

AdaNet采用TensorFlow估計(jì)器的交互界面,它通過(guò)簡(jiǎn)單訓(xùn)練、評(píng)估,大大簡(jiǎn)化了機(jī)器學(xué)習(xí)的編程過(guò)程。它把TensorFlow Hub模塊、TensorFlow模型分析和谷歌云的超參數(shù)調(diào)整期等開(kāi)源工具結(jié)合在了一起。分布式訓(xùn)練可以極大地減少訓(xùn)練時(shí)間。

AdaNet在CIFAR-100上每一訓(xùn)練步驟的精確度。藍(lán)線代表在訓(xùn)練集上的精確度,紅線代表測(cè)試集上的表現(xiàn)。在每百萬(wàn)個(gè)步驟上都有一個(gè)新的子網(wǎng)絡(luò)開(kāi)始訓(xùn)練,最終會(huì)提高整個(gè)集成模型的性能?;疑途G色的線表示新的子網(wǎng)絡(luò)加入之前集成的精確度

TensorBoard是可視化模型尺度在訓(xùn)練時(shí)最佳的TensorFlow特征之一,AdaNet與其無(wú)縫銜接,從而控制子網(wǎng)絡(luò)的訓(xùn)練、集成的構(gòu)成和性能。當(dāng)AdaNet完成訓(xùn)練后,它會(huì)輸出一個(gè)SavedModel,之后會(huì)利用TensorFlow Serving進(jìn)行部署。

學(xué)習(xí)保證

創(chuàng)建一個(gè)神經(jīng)網(wǎng)絡(luò)集成會(huì)面臨多種問(wèn)題:哪種是最好的子網(wǎng)絡(luò)架構(gòu)?是重復(fù)使用同一種架構(gòu)好,還是讓架構(gòu)多樣化好?雖然參數(shù)更多的復(fù)雜子網(wǎng)絡(luò)在訓(xùn)練集表現(xiàn)得可能更好,但也正是因?yàn)樗鼈兊膹?fù)雜性,可能無(wú)法在陌生數(shù)據(jù)上進(jìn)行泛化。這些挑戰(zhàn)都來(lái)自于對(duì)模型性能的評(píng)估,我們可以從訓(xùn)練集中分出一部分?jǐn)?shù)據(jù)對(duì)模型性能進(jìn)行評(píng)估,但是這樣做可能會(huì)減少用于訓(xùn)練的樣本數(shù)量。

而在這里,AdaNet的方法對(duì)目標(biāo)進(jìn)行優(yōu)化,平衡了集成框架在訓(xùn)練時(shí)的性能和它對(duì)陌生數(shù)據(jù)泛化之間的差別。核心思想就是,當(dāng)備選子網(wǎng)絡(luò)提高了集成的訓(xùn)練損失超過(guò)了其對(duì)泛化能力的影響時(shí),子網(wǎng)絡(luò)才能加入到集成中去。這保證了:

集成的泛化錯(cuò)誤由它的訓(xùn)練錯(cuò)誤和復(fù)雜性所限制。

通過(guò)對(duì)目標(biāo)進(jìn)行優(yōu)化,我們可以直接對(duì)這一限制進(jìn)行最小化。

對(duì)這一目標(biāo)進(jìn)行優(yōu)化的實(shí)際好處就是,它無(wú)需再選擇哪個(gè)子網(wǎng)絡(luò)要被添加到集成中去,這也使得更多的訓(xùn)練數(shù)據(jù)可以用于訓(xùn)練更多子網(wǎng)絡(luò),成為了額外的好處。想了解更多,可以閱讀我們關(guān)于AdaNet的教程。

可擴(kuò)展

對(duì)研究者和從業(yè)者來(lái)說(shuō),讓AutoML框架產(chǎn)生作用的關(guān)鍵不僅僅是提供合理的默認(rèn)值,而且要讓用戶嘗試對(duì)他們自己的子網(wǎng)絡(luò)或模型進(jìn)行定義。機(jī)器學(xué)習(xí)研究者、從業(yè)者和愛(ài)好者都可以通過(guò)adanet.subnetwork.Builder來(lái)定義自己的AdaNet。

已經(jīng)在自己的系統(tǒng)中集成TensorFlow模型的用戶可以輕松將他們的TensorFlow代碼轉(zhuǎn)移到AdaNet子網(wǎng)絡(luò)中,并使用adanet.Estimator提高模型性能,同時(shí)保證學(xué)習(xí)成功率。AdaNet會(huì)找到他們所定義的子網(wǎng)絡(luò)搜索空間,學(xué)習(xí)如何集成子網(wǎng)絡(luò)。在谷歌官方博客中,研究人員取了一個(gè)開(kāi)源的NASNet-A CIFAR架構(gòu),將它轉(zhuǎn)換成一個(gè)子網(wǎng)絡(luò),并在CIFAR-10上優(yōu)化,經(jīng)過(guò)八次AdaNet迭代后得到最佳結(jié)果。另外,我們的模型在更少的參數(shù)上也達(dá)到了相同結(jié)果:

用戶也可以用自己特殊的損失函數(shù)作為AdaNet目標(biāo)的一部分,從而訓(xùn)練回歸、分類和多任務(wù)學(xué)習(xí)等問(wèn)題。

用戶還可以擴(kuò)展adanet.subnetwork.Generator的類別,完全定義候選子網(wǎng)絡(luò)的搜索空間。這可以讓他們基于自己的硬件設(shè)備增加或減少搜索空間。子網(wǎng)絡(luò)的搜索空間和復(fù)制有著相同配置不同隨機(jī)種子的子網(wǎng)絡(luò)一樣簡(jiǎn)單,訓(xùn)練多個(gè)有著不同超參數(shù)組合的子網(wǎng)絡(luò),讓AdaNet選擇一個(gè)添加到最終的集成中。

如果你想試試AdaNet,可以查看谷歌的GitHub,其中包含了幾個(gè)利用密集圖層和卷積的例子。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:谷歌推出集成學(xué)習(xí)的有力工具AdaNet,靈活快速實(shí)現(xiàn)AutoML

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    谷歌深度學(xué)習(xí)插件tensorflow

    前段時(shí)間忙著研究Zedboard,這幾天穿插著加入Python的深度學(xué)習(xí)的研究,最近使用谷歌tensorflow比較多,而且官方出了中文教程,比較給力,下面在Windows10下安裝
    發(fā)表于 07-04 13:46

    Tensorflow量化缺少腳本/工具/文檔AWS Xilinx ML Suite(f1.2xlarge)

    classify_pb.py)然而,我找不到有關(guān)tensforflowgraph的量化階段的詳細(xì)文檔。它與其他框架非常不同。我錯(cuò)過(guò)了什么嗎?謝謝!以上來(lái)自于谷歌翻譯以下為原文Hello,I recently launched
    發(fā)表于 10-10 11:52

    汽車輕量化采用3D打印

    輕量化制造簡(jiǎn)單而言是在不犧牲零部件性能的前提下,減輕零部件重量的制造方式。重量的減輕帶來(lái)能耗的降低,在全球范圍控制碳排放的趨勢(shì)下,輕量化制造越來(lái)越受到重視,是未來(lái)制造的方向之。除了合金以外,近些年
    發(fā)表于 09-27 09:12

    TensorFlow將神經(jīng)網(wǎng)絡(luò)量化為8位

    隨著TensorFlow Lite的推出,TensorFlow已經(jīng)更新了量化技術(shù)和工具,您可以使用這些技術(shù)和工具來(lái)提高網(wǎng)絡(luò)性能。 本指南向您展示如何
    發(fā)表于 08-10 06:01

    汽車輕量化技術(shù)

    節(jié)能減排已成為世界汽車行業(yè)的共同趨勢(shì)。汽車輕量化是在保證強(qiáng)度和安全性的前提下,盡可能降低汽車整備質(zhì)量,以提高汽車的動(dòng)力性,實(shí)現(xiàn)節(jié)能減排。 2017中國(guó)(重慶)國(guó)際汽車輕量化及材料展,來(lái)自全世界頂級(jí)
    發(fā)表于 05-09 11:57 ?18次下載

    PACK輕量化設(shè)計(jì)介紹及電芯選擇

    隨著動(dòng)力電池系統(tǒng)相關(guān)標(biāo)準(zhǔn)和規(guī)范的制定,推動(dòng)技術(shù)的發(fā)展,市場(chǎng)對(duì)動(dòng)力電池系統(tǒng)的比能量要求也是越來(lái)越高,輕量化在動(dòng)力電池系統(tǒng)的應(yīng)用也是迫在眉睫。在電池包的輕量化設(shè)計(jì)中,可以從兩個(gè)方向:一個(gè)
    發(fā)表于 09-15 11:46 ?23次下載

    常見(jiàn)的輕量化材料的分類與汽車輕量化材料的應(yīng)用

    減少汽車自身質(zhì)量是降低油耗最有效的措施之。數(shù)據(jù)顯示,汽車自重每減少10%,NEDC工況下能耗可降低6%~8%,排放降低5%~6%。而燃油消耗每減少1L,CO2的排放量減少2.45kg。輕量化的實(shí)現(xiàn)
    發(fā)表于 09-15 16:53 ?6次下載
    常見(jiàn)的<b class='flag-5'>輕量化</b>材料的分類與汽車<b class='flag-5'>輕量化</b>材料的應(yīng)用

    低速電動(dòng)車輕量化的作用和蘊(yùn)含的技術(shù)分析

    低速電動(dòng)車需要研究輕量化有兩大原因:是在低速電動(dòng)車的標(biāo)準(zhǔn)草案中,提出了小尺寸和輕型化的標(biāo)準(zhǔn)引導(dǎo)方向;二是減輕整車質(zhì)量能夠更有效地提升電源利用效率,并提高駕乘體驗(yàn)。 低速電動(dòng)車的輕量化
    發(fā)表于 09-21 15:23 ?1次下載
    低速電動(dòng)車<b class='flag-5'>輕量化</b>的作用和蘊(yùn)含的技術(shù)分析

    TensorFlow框架結(jié)構(gòu)解析

    TensorFlow谷歌的第二代開(kāi)源的人工智能學(xué)習(xí)系統(tǒng),是用來(lái)實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)的內(nèi)置框架學(xué)習(xí)軟件庫(kù)。目前,TensorFlow機(jī)器學(xué)習(xí)已經(jīng)成為了
    發(fā)表于 04-04 14:39 ?7090次閱讀
    <b class='flag-5'>TensorFlow</b>的<b class='flag-5'>框架</b>結(jié)構(gòu)解析

    AutoML又利器來(lái)了,谷歌宣布開(kāi)源AdaNet(附教程)

    關(guān)鍵詞:AutoML , AdaNet , 集成學(xué)習(xí) , 機(jī)器學(xué)習(xí) , 神經(jīng)網(wǎng)絡(luò) 來(lái)源:新智元 今天,谷歌宣布開(kāi)源AdaNet,這是個(gè)輕量
    發(fā)表于 10-31 17:43 ?281次閱讀

    AutoML又利器來(lái)了!谷歌宣布開(kāi)源AdaNet

    由于TensorBoard是用于在訓(xùn)練期間可視化模型性鞥的最佳TensorFlow功能之,AdaNet可與其無(wú)縫集成,以監(jiān)控子網(wǎng)絡(luò)訓(xùn)練,集合組合和性能。當(dāng)AdaNet完成訓(xùn)練后,它會(huì)
    的頭像 發(fā)表于 11-01 09:40 ?2519次閱讀

    電動(dòng)汽車的輕量化可從哪些途徑來(lái)實(shí)現(xiàn)

    汽車輕量化對(duì)于汽車來(lái)說(shuō)還是個(gè)比較陌生的一個(gè)詞匯,隨著對(duì)環(huán)保要求的不斷提高,相關(guān)法規(guī)對(duì)于車輛更低油耗也提出了更高的標(biāo)準(zhǔn),
    發(fā)表于 10-25 14:50 ?1071次閱讀

    最新專利深入“輕量化”!華為這樣做?

    具體來(lái)看,汽車輕量化的實(shí)現(xiàn)途徑主要有兩方面:輕量化材料,使用比強(qiáng)度更高或密度更小的高強(qiáng)度鋼、鋁合金、鎂合金、碳纖維復(fù)合材料,對(duì)傳統(tǒng)普通鋼結(jié)構(gòu)進(jìn)行替代;二是輕量化設(shè)計(jì),通過(guò)開(kāi)發(fā)全新的
    的頭像 發(fā)表于 08-16 14:41 ?648次閱讀
    最新專利深入“<b class='flag-5'>輕量化</b>”!華為這樣做?

    深度學(xué)習(xí)框架tensorflow介紹

    深度學(xué)習(xí)框架tensorflow介紹 深度學(xué)習(xí)框架TensorFlow簡(jiǎn)介 深度學(xué)習(xí)框架TensorFl
    的頭像 發(fā)表于 08-17 16:11 ?2404次閱讀

    谷歌模型框架是什么軟件?谷歌模型框架怎么用?

    谷歌模型框架通常指的是谷歌開(kāi)發(fā)的用于機(jī)器學(xué)習(xí)和人工智能的軟件框架,其中最著名的是TensorFlow。T
    的頭像 發(fā)表于 03-01 16:25 ?770次閱讀