0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

討論熱度最高的論文TOP 5

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-10-08 11:09 ? 次閱讀

國慶佳節(jié)第一天,舉國同慶!出門旅游想必到處都是人山人海,不如在家里看看論文也是極好的!近日,機(jī)器學(xué)習(xí)頂會之一的ICLR2019投稿剛剛截止,本次大會投稿論文采用匿名公開的方式。本文整理了目前在國外社交網(wǎng)絡(luò)和知乎上討論熱烈的一些論文,一起來看看!

首先我們來看看ICLR 2018,也就是去年的提交論文題目分布情況。如下圖所示。熱門關(guān)鍵詞:強(qiáng)化學(xué)習(xí)、GAN、RIP等。

上圖為ICLR 2019提交論文的分布情況,熱門關(guān)鍵詞:強(qiáng)化學(xué)習(xí)、GAN、元學(xué)習(xí)等等。可以看出比去年還是有些變化的。

投稿論文地址:

https://openreview.net/group?id=ICLR.cc/2019/Conference

在GoogleColaboratory上可以找到關(guān)于ICLR 2019提交論文話題之間更加直觀的可視化圖。我們選擇了上圖中排名第三的話題“GAN”,圖中由紅色表示??梢钥闯觯琶谌腉AN與表中多個話題有交集,如training、state、graph等。

討論熱度最高的論文TOP 5

1. LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS

最強(qiáng)GAN圖像生成器,真假難辨

論文地址:

https://openreview.net/pdf?id=B1xsqj09Fm

更多樣本地址:

https://drive.google.com/drive/folders/1lWC6XEPD0LT5KUnPXeve_kWeY-FxH002

第一篇就是這篇最佳BigGAN,DeepMind負(fù)責(zé)星際項目的Oriol Vinyals,說這篇論文帶來了史上最佳的GAN生成圖片,提升Inception Score 100分以上。

論文摘要:

盡管近期由于生成圖像建模的研究進(jìn)展,從復(fù)雜數(shù)據(jù)集例如 ImageNet 中生成高分辨率、多樣性的樣本仍然是很大的挑戰(zhàn)。為此,研究者嘗試在最大規(guī)模的數(shù)據(jù)集中訓(xùn)練生成對抗網(wǎng)絡(luò),并研究在這種規(guī)模的訓(xùn)練下的不穩(wěn)定性。研究者發(fā)現(xiàn)應(yīng)用垂直正則化(orthogonal regularization)到生成器可以使其服從簡單的「截斷技巧」(truncation trick),從而允許通過截斷隱空間來精調(diào)樣本保真度和多樣性的權(quán)衡。這種修改方法可以讓模型在類條件的圖像合成中達(dá)到當(dāng)前最佳性能。當(dāng)在 128x128 分辨率的 ImageNet 上訓(xùn)練時,本文提出的模型—BigGAN—可以達(dá)到 166.3 的 Inception 分?jǐn)?shù)(IS),以及 9.6 的 Frechet Inception 距離(FID),而之前的最佳 IS 和 FID 僅為 52.52 和 18.65。

BigGAN的生成器架構(gòu)

生成樣例,真是惟妙惟肖

2.Recurrent Experience Replay in Distributed Reinforcement Learning

分布式強(qiáng)化學(xué)習(xí)中的循環(huán)經(jīng)驗池

論文地址:

https://openreview.net/pdf?id=r1lyTjAqYX

Building on the recent successes of distributed training of RL agents, in this paper we investigate the training of RNN-based RL agents from experience replay. We investigate the effects of parameter lag resulting in representational drift and recurrent state staleness and empirically derive an improved training strategy. Using a single network architecture and fixed set of hyper-parameters, the resulting agent, Recurrent Replay Distributed DQN, triples the previous state of the art on Atari-57, and surpasses the state of the art on DMLab-30. R2D2 is the first agent to exceed human-level performance in 52 of the 57 Atari games.

3.Shallow Learning For Deep Networks

深度神經(jīng)網(wǎng)絡(luò)的淺層學(xué)習(xí)

論文地址:

https://openreview.net/forum?id=r1Gsk3R9Fm

淺層監(jiān)督的一層隱藏層神經(jīng)網(wǎng)絡(luò)具有許多有利的特性,使它們比深層對應(yīng)物更容易解釋,分析和優(yōu)化,但缺乏表示能力。在這里,我們使用1-hiddenlayer學(xué)習(xí)問題逐層順序構(gòu)建深層網(wǎng)絡(luò),這可以從淺層網(wǎng)絡(luò)繼承屬性。與之前使用淺網(wǎng)絡(luò)的方法相反,我們關(guān)注的是深度學(xué)習(xí)被認(rèn)為對成功至關(guān)重要的問題。因此,我們研究了兩個大規(guī)模圖像識別任務(wù)的CNN:ImageNet和CIFAR-10。使用一組簡單的架構(gòu)和訓(xùn)練想法,我們發(fā)現(xiàn)解決序列1隱藏層輔助問題導(dǎo)致CNN超過ImageNet上的AlexNet性能。通過解決2層和3層隱藏層輔助問題來擴(kuò)展ourtraining方法以構(gòu)建單個層,我們獲得了一個11層網(wǎng)絡(luò),超過ImageNet上的VGG-11,獲得了89.8%的前5個單一作物。據(jù)我們所知,這是CNN的端到端培訓(xùn)的第一個競爭性替代方案,可以擴(kuò)展到ImageNet。我們進(jìn)行了廣泛的實驗來研究它在中間層上引起的性質(zhì)。

4.Relational Graph Attention Networks

關(guān)聯(lián)性圖注意力網(wǎng)絡(luò)

論文地址:

https://openreview.net/forum?id=Bklzkh0qFm¬eId=HJxMHja3Y7

論文摘要:

In this paper we present Relational Graph Attention Networks, an extension of Graph Attention Networks to incorporate both node features and relational information into a masked attention mechanism, extending graph-based attention methods to a wider variety of problems, specifically, predicting the properties of molecules. We demonstrate that our attention mechanism gives competitive results on a molecular toxicity classification task (Tox21), enhancing the performance of its spectral-based convolutional equivalent. We also investigate the model on a series of transductive knowledge base completion tasks, where its performance is noticeably weaker. We provide insights as to why this may be, and suggest when it is appropriate to incorporate an attention layer into a graph architecture.

5.A Solution to China Competitive Poker Using Deep Learning

斗地主深度學(xué)習(xí)算法

論文地址:

https://openreview.net/forum?id=rJzoujRct7

論文摘要:

Recently, deep neural networks have achieved superhuman performance in various games such as Go, chess and Shogi. Compared to Go, China Competitive Poker, also known as Dou dizhu, is a type of imperfect information game, including hidden information, randomness, multi-agent cooperation and competition. It has become widespread and is now a national game in China. We introduce an approach to play China Competitive Poker using Convolutional Neural Network (CNN) to predict actions. This network is trained by supervised learning from human game records. Without any search, the network already beats the best AI program by a large margin, and also beats the best human amateur players in duplicate mode.

其他有意思的論文:

ICLR 2019 有什么值得關(guān)注的亮點?- 周博磊的回答 - 知乎

https://www.zhihu.com/question/296404213/answer/500575759

問句開頭式:

Are adversarial examples inevitable?

Transfer Value or Policy? A Value-centric Framework Towards Transferrable Continuous Reinforcement Learning

How Important is a Neuron?

How Powerful are Graph Neural Networks?

Do Language Models Have Common Sense?

Is Wasserstein all you need?

哲理警句式:

Learning From the Experience of Others: Approximate Empirical Bayes in Neural Networks

In Your Pace: Learning the Right Example at the Right Time

Learning what you can do before doing anything

Like What You Like: Knowledge Distill via Neuron Selectivity Transfer

Don’s Settle for Average, Go for the Max: Fuzzy Sets and Max-Pooled Word Vectors

抖機(jī)靈式:

Look Ma, No GANs! Image Transformation with ModifAE

No Pressure! Addressing Problem of Local Minima in Manifold Learning

Backplay: 'Man muss immer umkehren'

Talk The Walk: Navigating Grids in New York City through Grounded Dialogue

Fatty and Skinny: A Joint Training Method of Watermark

A bird's eye view on coherence, and a worm's eye view on cohesion

Beyond Winning and Losing: Modeling Human Motivations and Behaviors with Vector-valued Inverse Reinforcement Learning

一句總結(jié)式:

ImageNet-trained CNNs are biased towards texture; increasing shape bias improves accuracy and robustness.

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1080

    瀏覽量

    40382
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    1910

    瀏覽量

    72779
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5471

    瀏覽量

    120904

原文標(biāo)題:ICLR 2019熱議論文Top 5:BigGAN、斗地主深度學(xué)習(xí)算法等

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    PSpice論文一---PSpice仿真中收斂問題的研究

    PSpice是一個全功能的仿真工具,隨著版本的不斷革新,現(xiàn)已成為工業(yè)標(biāo)準(zhǔn)工具。只是仍未能完全杜絕不收斂問題。提供一篇論文幫助大家了解一下。該論文通過分析不收斂產(chǎn)生的原因,提出處理的方法,并通過實例
    發(fā)表于 12-28 17:03

    關(guān)于對labviEW畢業(yè)論文征集的活動

    臨近畢業(yè)時節(jié) ,我想肯定有人用labviEW做畢業(yè)論文,對于labviEW這種圖形化語言,在國內(nèi)相對資源比較匱乏,但是其效率相比一些別的語言確實是高很多。我希望大家就是能夠無私的分享出自己的畢業(yè)論文
    發(fā)表于 04-06 11:53

    智能硬件項目TOP10:要創(chuàng)業(yè)?先看你夠不夠格!

    團(tuán)隊入圍總決賽,114個團(tuán)隊提交了參賽作品?!驹斍閰⒖迹篢I物聯(lián)網(wǎng)設(shè)計大賽獲獎作品頁面】。最佳殊榮花落誰家?故電子發(fā)燒友網(wǎng)編輯特收集在本次設(shè)計大賽活動中,評價最高且最具獨特創(chuàng)意的設(shè)計方案TOP 10
    發(fā)表于 01-08 10:32

    電賽儀器儀表類論文

    有沒有人有前幾年電賽儀器儀表類的論文,或者這個論文應(yīng)該寫哪些方面,進(jìn)來討論一下吧
    發(fā)表于 08-09 17:23

    【年度精選】2020年度top5榜單——單片機(jī)/MCU論壇討論

    本榜單匯總了2020年回復(fù)數(shù)最多的討論帖,當(dāng)中的討論是否也帶給你啟發(fā)?每個帖子都有推薦理由,希望這個榜單能讓更多朋友在學(xué)習(xí)路上不懼困難,踴躍發(fā)起討論!1、89C52單片機(jī)+兩個L293N驅(qū)動四輪車
    發(fā)表于 01-21 14:46

    【年度精選】2020年度TOP5榜單——測試測量技術(shù)論壇討論

    本榜單匯總了2020年回復(fù)數(shù)最多的討論帖,當(dāng)中的討論是否也帶給你啟發(fā)?每個帖子都有推薦理由,希望這個榜單能讓更多朋友在學(xué)習(xí)路上不懼困難,踴躍發(fā)起討論!1、 Rigol示波器和麥科信示波器實拍視頻作者
    發(fā)表于 01-27 16:37

    【年度精選】2020年度top5榜單——電路設(shè)計論壇討論

    本榜單匯總了2020年回復(fù)數(shù)最多的討論帖,當(dāng)中的討論是否也帶給你啟發(fā)?每個帖子都有推薦理由,希望這個榜單能讓更多朋友在學(xué)習(xí)路上不懼困難,踴躍發(fā)起討論!1、ltc1865時序就是sdo輸出始終為零
    發(fā)表于 01-28 10:19

    宣傳話題擴(kuò)展尺寸和降低熱度的汽車廣播設(shè)計注意事項有哪些?

    宣傳話題擴(kuò)展尺寸和降低熱度的汽車廣播設(shè)計注意事項有哪些?
    發(fā)表于 06-17 11:16

    【年度精選】2021年度TOP榜單——STM32/STM8技術(shù)論壇討論

    2020全年STM32/STM8技術(shù)論壇貢獻(xiàn)排行榜,所有上榜的用戶從資料/問答/經(jīng)驗/討論TOP5榜單中產(chǎn)生,超多精彩干貨內(nèi)容,不容錯過!3、根據(jù)需求要控制500個LED燈狀,每個燈狀態(tài)獨立,求推薦硬件
    發(fā)表于 01-05 18:21

    逢山開路模型畢業(yè)論文

    逢山開路模型畢業(yè)論文:本文討論的是在山區(qū)修建公路的路線選擇問題。
    發(fā)表于 09-15 14:57 ?17次下載

    最精彩的都在這!MWC討論最高5款手機(jī)一次看!

    MWC世界行動通信大展自27日開展至今,已經(jīng)有不少重要新手機(jī)陸續(xù)發(fā)表,每一款都為全球的消費者帶來不同的驚喜。到底MWC上有哪些令人驚艷的手機(jī)?他們又有什么樣的特色呢?以下就將今年MWC討論最高的幾款手機(jī)做個簡單整理,讓大家可以一目了然
    發(fā)表于 03-01 16:32 ?757次閱讀

    如今哪些手機(jī)最受關(guān)注?魅藍(lán)5s已成熱度最高千元機(jī)!

    伴隨著2017年開年大會MWC 2017的到來,科技品牌之間的競爭早早又開始熱鬧起來了。以魅藍(lán)5s作為開年第一機(jī),春節(jié)后的第一個月度榜單,來自ZDC互聯(lián)網(wǎng)消費調(diào)研中心的「中國手機(jī)市場最受關(guān)注TOP30排行」出爐。
    發(fā)表于 03-02 16:36 ?693次閱讀
    如今哪些手機(jī)最受關(guān)注?魅藍(lán)<b class='flag-5'>5</b>s已成<b class='flag-5'>熱度</b><b class='flag-5'>最高</b>千元機(jī)!

    基于邏輯區(qū)間熱度的垃圾回收算法

    針對現(xiàn)有的NAND閃存垃圾回收算法中回收性能不高,磨損均衡效果差,并且算法內(nèi)存開銷大的問題,提出了一種基于邏輯區(qū)間熱度的垃圾回收算法。該算法重新定義了熱度計算公式,把連續(xù)邏輯地址的NAND內(nèi)存定義為
    發(fā)表于 12-05 18:27 ?0次下載
    基于邏輯區(qū)間<b class='flag-5'>熱度</b>的垃圾回收算法

    MediaTek大量論文入選ISSCC 2020,引領(lǐng)5G和AI領(lǐng)域半導(dǎo)體技術(shù)趨勢

    MediaTek 集團(tuán) 的11篇論文被ISSCC 2020收錄并發(fā)表,數(shù)量和技術(shù)涵蓋范圍達(dá)到歷年最高。在收錄論文的機(jī)構(gòu)中,MediaTek再次成為數(shù)量領(lǐng)先的半導(dǎo)體企業(yè),與三星、Intel排名前三,其技術(shù)尖端實力得到權(quán)威的國際認(rèn)可
    發(fā)表于 11-21 17:44 ?1120次閱讀

    計算機(jī)視覺CV領(lǐng)域圖像分類方向文獻(xiàn)和代碼的超全總結(jié)和列表!

    基于簡化的目的,我只從論文中列舉出在 ImageNet 上準(zhǔn)確率最高top1 和 top5。注意,這并不一定意味著準(zhǔn)確率越高,一個網(wǎng)絡(luò)就比另一個網(wǎng)絡(luò)更好。因為有些網(wǎng)絡(luò)專注于降低模型
    的頭像 發(fā)表于 11-03 10:08 ?4091次閱讀
    計算機(jī)視覺CV領(lǐng)域圖像分類方向文獻(xiàn)和代碼的超全總結(jié)和列表!