0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用來自于Quick Draw游戲的數(shù)百萬涂鴉訓(xùn)練該神經(jīng)網(wǎng)絡(luò)

Tensorflowers ? 來源:未知 ? 作者:李倩 ? 2018-07-25 10:24 ? 次閱讀

Try the sketch-rnn demo

對(duì)于通過蜂窩數(shù)據(jù)連接網(wǎng)絡(luò)的移動(dòng)用戶:第一個(gè)演示大小約為 5 MB 數(shù)據(jù)。每次在演示中更改模型時(shí),您將使用另外 5 MB 的數(shù)據(jù)。

我們進(jìn)行了一個(gè)交互式網(wǎng)絡(luò)實(shí)驗(yàn),讓你能與一個(gè)名為 sketch-rnn 的循環(huán)神經(jīng)網(wǎng)絡(luò)模型一起繪制作品。我們利用來自于 Quick Draw! 游戲的數(shù)百萬涂鴉訓(xùn)練該神經(jīng)網(wǎng)絡(luò)。一旦開始繪制對(duì)象,sketch-rnn 將提出許多可行的方法基于你中斷的位置繼續(xù)繪制此對(duì)象。試試第一個(gè)演示。

在上面的演示中,我們被提示開始繪制特定對(duì)象。一旦你停止涂鴉,神經(jīng)網(wǎng)絡(luò)將接管并試圖猜測(cè)涂鴉的其余部分。你可以再次接管繪圖并繼續(xù)從中斷處開始。我們訓(xùn)練了大約 100 種可以用于試驗(yàn)的模型,并且一些模型在多種類別上進(jìn)行了訓(xùn)練。

其他 sketch-rnn 演示

下面的演示最好在桌面瀏覽器上體驗(yàn),而不是在移動(dòng)設(shè)備上體驗(yàn)。

多預(yù)測(cè)

多預(yù)測(cè)演示

該演示類似于第一個(gè)預(yù)測(cè)繪圖其余部分的演示。在此版本中,您將在左側(cè)區(qū)域內(nèi)繪制草圖的開頭,模型將在右側(cè)較小的框內(nèi)預(yù)測(cè)圖形的其余部分。這樣,您可以看到模型預(yù)測(cè)的各種不同結(jié)局。預(yù)測(cè)的結(jié)局有時(shí)會(huì)讓人感到期待,有時(shí)會(huì)出乎意料和奇怪,而且有時(shí)也可能是丑陋和完全錯(cuò)誤的。

你還可以選擇不同的類別,使模型基于相同的不完整的起始草圖繪制不同的對(duì)象,或者使模型繪制方形貓或圓形卡車等內(nèi)容。你可以隨時(shí)中斷模型并繼續(xù)在左側(cè)區(qū)域內(nèi)繪制圖形,并讓模型不斷預(yù)測(cè)你離開的位置。

插值

插值演示

除了預(yù)測(cè)不完整繪圖的其余部分外,sketch-rnn 還可以從一個(gè)繪圖變換到另一個(gè)繪圖。在 Interpolation Demo 中,可以使用屏幕兩側(cè)的按鈕隨機(jī)生成兩個(gè)圖像。點(diǎn)擊 Interpolate 按鈕,模型將提出新的草圖,作為兩個(gè)原始草圖之間的插值。在上圖中,模型在自行車和瑜伽位置之間進(jìn)行插值。嘗試使用插值演示在兩個(gè)隨機(jī)生成的圖像之間進(jìn)行變換。

變分自動(dòng)編碼器

變分自動(dòng)編碼器演示

該模型還可以模擬你的繪圖并生成類似的涂鴉。在變分自動(dòng)編碼器演示中,你將繪制指定對(duì)象的完整圖形。在左側(cè)區(qū)域內(nèi)繪制完整草圖后,點(diǎn)擊自動(dòng)編碼按鈕,模型將開始在右側(cè)較小的框內(nèi)繪制類似的草圖。模型將嘗試模擬你的繪圖,而不是繪制完美的繪圖副本。

你可以嘗試?yán)L制其他類別的繪圖對(duì)象,并查看模型如何解釋你的繪圖。嘗試變分自動(dòng)編碼器演示。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    44

    文章

    3529

    瀏覽量

    133295
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4717

    瀏覽量

    100002

原文標(biāo)題:神經(jīng)網(wǎng)絡(luò)已經(jīng)猜到了你要繪制的內(nèi)容

文章出處:【微信號(hào):tensorflowers,微信公眾號(hào):Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    利用深度循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)心電圖降噪

    曼濾波。因此,通過這種方式訓(xùn) 練網(wǎng)絡(luò),無法獲得比卡爾曼濾波本身更好的 性能。本文介紹了一種利用深度遞歸神經(jīng)網(wǎng)絡(luò) (DRNN)對(duì) ECG 信號(hào)進(jìn)行降噪的新方 法。
    發(fā)表于 05-15 14:42

    人工神經(jīng)網(wǎng)絡(luò)原理及下載

    這個(gè)網(wǎng)絡(luò)輸入和相應(yīng)的輸出來“訓(xùn)練”這個(gè)網(wǎng)絡(luò),網(wǎng)絡(luò)根據(jù)輸入和輸出不斷地調(diào)節(jié)自己的各節(jié)點(diǎn)之間的權(quán)值來滿足輸入和輸出。這樣,當(dāng)訓(xùn)練結(jié)束后,我們給定
    發(fā)表于 06-19 14:40

    當(dāng)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)用于應(yīng)用的時(shí)候,權(quán)值是不是不能變了?

    當(dāng)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)用于應(yīng)用的時(shí)候,權(quán)值是不是不能變了????就是已經(jīng)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)是不是相當(dāng)于得到一個(gè)公式了,權(quán)值不能變了
    發(fā)表于 10-24 21:55

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    元,它決定了輸入向量在地位空間中的位置。SOM神經(jīng)網(wǎng)絡(luò)訓(xùn)練的目的就是為每個(gè)輸出層神經(jīng)元找到合適的權(quán)向量,以達(dá)到保持拓?fù)浣Y(jié)構(gòu)的目的。SOM的訓(xùn)練
    發(fā)表于 07-21 04:30

    基于光學(xué)芯片的神經(jīng)網(wǎng)絡(luò)訓(xùn)練解析,不看肯定后悔

    基于光學(xué)芯片的神經(jīng)網(wǎng)絡(luò)訓(xùn)練解析,不看肯定后悔
    發(fā)表于 06-21 06:33

    matlab實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò) 精選資料分享

    習(xí)神經(jīng)神經(jīng)網(wǎng)絡(luò),對(duì)于神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)是如何一直沒有具體實(shí)現(xiàn)一下:現(xiàn)看到一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)模型用于訓(xùn)練的輸入數(shù)據(jù):對(duì)應(yīng)的輸出數(shù)據(jù):我們這里設(shè)置:
    發(fā)表于 08-18 07:25

    優(yōu)化神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法有哪些?

    優(yōu)化神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法有哪些?
    發(fā)表于 09-06 09:52

    如何進(jìn)行高效的時(shí)序圖神經(jīng)網(wǎng)絡(luò)訓(xùn)練

    現(xiàn)有的圖數(shù)據(jù)規(guī)模極大,導(dǎo)致時(shí)序圖神經(jīng)網(wǎng)絡(luò)訓(xùn)練需要格外長的時(shí)間,因此使用多GPU進(jìn)行訓(xùn)練變得成為尤為重要,如何有效地將多GPU用于時(shí)序圖神經(jīng)網(wǎng)絡(luò)訓(xùn)練
    發(fā)表于 09-28 10:37

    解讀多層神經(jīng)網(wǎng)絡(luò)反向傳播原理

    訓(xùn)練神經(jīng)網(wǎng)絡(luò),我們需要“訓(xùn)練數(shù)據(jù)集”。訓(xùn)練數(shù)據(jù)集是由對(duì)應(yīng)目標(biāo)z(期望輸出)的輸入信號(hào)(x_1和 x_2)組成。神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 10-18 18:20 ?8506次閱讀
    解讀多層<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>反向傳播原理

    訓(xùn)練神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)主要來自大陸測(cè)試車隊(duì)?

    神經(jīng)網(wǎng)絡(luò)如果可以幫助駕駛員甚至自動(dòng)駕駛車輛,需要幾千個(gè)小時(shí)的訓(xùn)練,其中包括數(shù)百萬幅圖像和數(shù)據(jù)。據(jù)該公司稱,NVIDIA DGX POD不僅縮短了這一復(fù)雜過程所需的時(shí)間,還縮短了新技術(shù)上市時(shí)間。
    發(fā)表于 07-31 10:17 ?349次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用 卷積神經(jīng)網(wǎng)絡(luò)通常用來處理什么

    卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用 卷積神經(jīng)網(wǎng)絡(luò)通常用來處理什么 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱CNN)是一種在神經(jīng)網(wǎng)
    的頭像 發(fā)表于 08-21 16:41 ?4690次閱讀

    如何訓(xùn)練和優(yōu)化神經(jīng)網(wǎng)絡(luò)

    神經(jīng)網(wǎng)絡(luò)是人工智能領(lǐng)域的重要分支,廣泛應(yīng)用于圖像識(shí)別、自然語言處理、語音識(shí)別等多個(gè)領(lǐng)域。然而,要使神經(jīng)網(wǎng)絡(luò)在實(shí)際應(yīng)用中取得良好效果,必須進(jìn)行有效的訓(xùn)練和優(yōu)化。本文將從神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-01 14:14 ?268次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的是什么

    、訓(xùn)練過程以及應(yīng)用場(chǎng)景。 1. 卷積神經(jīng)網(wǎng)絡(luò)的基本概念 1.1 卷積神經(jīng)網(wǎng)絡(luò)的定義 卷積神經(jīng)網(wǎng)絡(luò)是一種前饋深度學(xué)習(xí)模型,其核心思想是利用卷積
    的頭像 發(fā)表于 07-03 09:15 ?219次閱讀

    如何利用Matlab進(jìn)行神經(jīng)網(wǎng)絡(luò)訓(xùn)練

    ,使得神經(jīng)網(wǎng)絡(luò)的創(chuàng)建、訓(xùn)練和仿真變得更加便捷。本文將詳細(xì)介紹如何利用Matlab進(jìn)行神經(jīng)網(wǎng)絡(luò)訓(xùn)練,包括網(wǎng)
    的頭像 發(fā)表于 07-08 18:26 ?837次閱讀

    怎么對(duì)神經(jīng)網(wǎng)絡(luò)重新訓(xùn)練

    重新訓(xùn)練神經(jīng)網(wǎng)絡(luò)是一個(gè)復(fù)雜的過程,涉及到多個(gè)步驟和考慮因素。 引言 神經(jīng)網(wǎng)絡(luò)是一種強(qiáng)大的機(jī)器學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、自然語言處理、語音識(shí)別等領(lǐng)域。然而,隨著時(shí)間的推移,數(shù)據(jù)分布可能會(huì)
    的頭像 發(fā)表于 07-11 10:25 ?302次閱讀