0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

探討GAN背后的數(shù)學(xué)原理(下)

jf_78858299 ? 來(lái)源:人工智能大講堂 ? 作者:人工智能大講堂 ? 2023-03-17 10:02 ? 次閱讀

2.2 判別器:有問(wèn)題?GAN來(lái)了!

GAN由生成器G和判別器D組成。

其實(shí)上面我們已經(jīng)基本介紹了生成器G的由來(lái)了,并且我們遇到了一個(gè)問(wèn)題: 圖片極其復(fù)雜的計(jì)算方式導(dǎo)致使用極大似然估計(jì)根本無(wú)從下手啊?。?!

為了解決這個(gè)問(wèn)題,我們引入了判別器D!

現(xiàn)在GAN的結(jié)構(gòu)就完備了!!

對(duì)于生成器G:

  1. G 是一個(gè)函數(shù),輸入圖片 ,輸出(上面已經(jīng)介紹了)

    圖片

  2. 先驗(yàn)分布 圖片, 圖片和G共同決定的分布圖片

對(duì)于判別器D:

  1. D是一個(gè)函數(shù),輸入圖片,輸出一個(gè)scalar
  2. D用于評(píng)估圖片圖片之間的差異(解決上一小節(jié)提出的問(wèn)題)

那么,GAN的最終目標(biāo)-->用符號(hào)化語(yǔ)言表示就是:

圖片

我們的目標(biāo)是得到使得式子圖片最小的生成器圖片.

關(guān)于V:

圖片

給定G, 圖片衡量的就是分布圖片圖片的差異。

因此,圖片也就是我們需要的使得差異最小的 G .

詳細(xì)解釋 V(G,D) :

對(duì)于圖片:

固定G ,最優(yōu)圖片 最大化:

圖片

假設(shè)D(x) 可以表達(dá)任何函數(shù)

此時(shí)再固定 x ,則對(duì)于 圖片,我們可將其看成是關(guān)于D的函數(shù): 圖片

圖片

解得

圖片

即:

圖片

則此時(shí)對(duì)于原式 V(G,D) (將圖片代入):

圖片

JSD表示JS散度,它是KL散度的一種變形,也表示兩個(gè)分布之間的差異:

圖片

與KL散度不同,JS散度是對(duì)稱(chēng)的。

以上的公式推導(dǎo),證明了圖片確實(shí)是衡量了 圖片圖片之間的差異。

圖片

此時(shí),最優(yōu)的G:

圖片

也就是使得圖片最小的G

圖片

當(dāng)圖片時(shí),表示兩個(gè)分布完全相同。

對(duì)于圖片 ,令 圖片

我們?cè)撊绾蝺?yōu)化從而獲得圖片呢???

我們希望通過(guò)最小化損失函數(shù)L(G) ,找到最優(yōu)的G。

這一步可以通過(guò)梯度下降實(shí)現(xiàn):

圖片

具體算法參考:

第一代:

  1. 給定圖片(隨機(jī)初始化)
  • 確定圖片 使得 V(圖片,D) 最大。此時(shí) V(圖片,圖片) 表示圖片圖片的JS散度

  • 梯度下降:圖片 .得到

    圖片

第二代:

  1. 給定圖片
  • 確定圖片 使得V(圖片,D) 最大。此時(shí)V(圖片,圖片)表示圖片圖片的JS散度

  • 梯度下降:圖片 .得到

    圖片

。。。

后面的依此類(lèi)推

以上算法有一個(gè)問(wèn)題: 如何確定圖片使得 V (D ,G**)**** 最大???**

也就是:給定 G,如何計(jì)算 圖片

回答:

圖片采樣圖片

圖片采樣圖片

因此我們可以將圖片從期望值計(jì)算改寫(xiě)為對(duì)樣本計(jì)算(近似估計(jì)):

圖片

這很自然地讓我們想到二分類(lèi)問(wèn)題中常使用的交叉熵loss

因此,我們不妨聯(lián)想:

D是一個(gè)二分類(lèi)器,參數(shù)圖片

來(lái)自圖片的采樣圖片作為正樣本

來(lái)自圖片的采樣圖片作為負(fù)樣本

那么此時(shí),我們就將問(wèn)題轉(zhuǎn)化成了一個(gè)二分類(lèi)問(wèn)題:

交叉熵loss大 -->圖片圖片 JS散度小

交叉熵loss小 -->圖片圖片 JS散度大

此時(shí),D就是可以使用一個(gè)神經(jīng)網(wǎng)絡(luò)作為二分類(lèi)器,那么確定D,也就是可以使用梯度下降來(lái)優(yōu)化獲得D的最終參數(shù)。

GAN的最終算法流程:

初始化參數(shù)圖片(for D)和圖片(for G)

對(duì)于訓(xùn)練的每一輪:

第一部分 學(xué)習(xí)優(yōu)化判別器D:

  • 圖片采樣圖片

  • 圖片 采樣

    圖片

  • 通過(guò)生成器 圖片獲得生成樣本

    圖片

  • 梯度下降更新圖片來(lái)最大化 :

    圖片:

    圖片

注:以上第一部分可以重復(fù)多次:此過(guò)程本質(zhì)上是在測(cè)量?jī)煞植贾g的JS散度

第二部分 學(xué)習(xí)優(yōu)化生成器G:

  • 再?gòu)?img src="http://file1.elecfans.com/web2/M00/81/D7/wKgaomQTyYKAF5b1AAAHD9c90W4110.jpg" alt="圖片" />采樣另一組圖片
  • 梯度下降更新圖片來(lái)最小化 : 圖片:圖片 .實(shí)際上圖片第一項(xiàng)與G無(wú)關(guān),梯度下降只需最小化圖片即可。

注:以上過(guò)程僅一次

最后的話(huà):

其實(shí)在GAN之前,就已經(jīng)有Auto-Encoder,VAE這樣的方法來(lái)使用神經(jīng)網(wǎng)絡(luò)做生成式任務(wù)了。

GAN的最大的創(chuàng)新就是在于非常精妙地引入了判別器,從樣本的維度解決了衡量?jī)蓚€(gè)分布差異的問(wèn)題。

這種生成器和判別器對(duì)抗學(xué)習(xí)的模式,也必將在各種生成式任務(wù)中發(fā)揮其巨大的威力。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    1910

    瀏覽量

    72755
  • 生成器
    +關(guān)注

    關(guān)注

    7

    文章

    313

    瀏覽量

    20957
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5471

    瀏覽量

    120903
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    你知道XGBoost背后數(shù)學(xué)原理是什么嗎?

    在第一種方法的基礎(chǔ)上,每走過(guò)特定數(shù)量的臺(tái)階,都由韓梅梅去計(jì)算每一個(gè)臺(tái)階的損失函數(shù)值,并從中找出局部最小值,以免錯(cuò)過(guò)全局最小值。每次韓梅梅找到局部最小值,她就發(fā)個(gè)信號(hào),這樣李雷就永遠(yuǎn)不會(huì)走錯(cuò)路了。但這種方法對(duì)女孩子不公平,可憐的韓梅梅需要探索她附近的所有點(diǎn)并計(jì)算所有這些點(diǎn)的函數(shù)值。
    的頭像 發(fā)表于 08-22 08:59 ?6.5w次閱讀

    基于GaN的開(kāi)關(guān)器件

    和電機(jī)控制中。他們的接受度和可信度正在逐漸提高。(請(qǐng)注意,基于GaN的射頻功放或功放也取得了很大的成功,但與GaN器件具有不同的應(yīng)用場(chǎng)合,超出了本文的范圍。)本文探討GaN器件的潛力
    發(fā)表于 06-21 08:27

    如何精確高效的完成GaN PA中的I-V曲線(xiàn)設(shè)計(jì)?

    GaN PA 設(shè)計(jì)?)后,了解I-V 曲線(xiàn)(亦稱(chēng)為電流-電壓特性曲線(xiàn))是一個(gè)很好的起點(diǎn)。本篇文章探討I-V 曲線(xiàn)的重要性,及其在非線(xiàn)性GaN 模型(如Modelithics Qorvo GaN
    發(fā)表于 07-31 06:44

    推導(dǎo)GAN公式

    GAN數(shù)學(xué)推導(dǎo)和案例應(yīng)用
    發(fā)表于 04-13 09:34

    GraphSAGEGNN算法的數(shù)學(xué)原理是什么?

    本文深入討論了GraphSAGEGNN算法的數(shù)學(xué)原理,并從多個(gè)維度分析了GNN加速器設(shè)計(jì)中的技術(shù)挑戰(zhàn)。
    發(fā)表于 06-17 08:56

    變壓變頻調(diào)速的數(shù)學(xué)原理是什么

    變壓變頻調(diào)速系統(tǒng)的基本原則是什么?變壓變頻調(diào)速的數(shù)學(xué)原理是什么?
    發(fā)表于 08-03 06:10

    如何使用LL庫(kù)給MCU頻率F每T秒使用定時(shí)器更新事件生成一個(gè)中斷?

    您好,我想使用 LL 庫(kù)和帶有 STM32L071CB 的基本定時(shí)器以給定的 MCU 頻率F每T秒使用定時(shí)器更新事件生成一個(gè)中斷。比方說(shuō):T = 5 秒系統(tǒng)時(shí)鐘頻率F = 32 MHz定時(shí)器TIM6這看起來(lái)是一項(xiàng)簡(jiǎn)單的任務(wù),但我很難理解這些操作背后數(shù)學(xué)原理。
    發(fā)表于 12-13 07:30

    dq坐標(biāo)變換數(shù)學(xué)原理

    dq坐標(biāo)變換數(shù)學(xué)原理
    發(fā)表于 12-20 22:56 ?19次下載

    深入卷積神經(jīng)網(wǎng)絡(luò)背后數(shù)學(xué)原理

    在計(jì)算機(jī)神經(jīng)視覺(jué)技術(shù)的發(fā)展過(guò)程中,卷積神經(jīng)網(wǎng)絡(luò)成為了其中的重要組成部分,本文對(duì)卷積神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)原理進(jìn)行了介紹。
    的頭像 發(fā)表于 04-25 14:52 ?3509次閱讀

    計(jì)算機(jī)代數(shù)系統(tǒng)數(shù)學(xué)原理

    本文主要討論計(jì)算機(jī)代數(shù)系統(tǒng)的數(shù)學(xué)原理,由十六個(gè)章節(jié)組成。內(nèi)容包含高精度運(yùn)算,數(shù)論,數(shù)學(xué)常數(shù),精確線(xiàn)性代數(shù),多項(xiàng)式,方程求解,符號(hào)求和,符號(hào)積分,微分方程符號(hào)解等九大部分,涵蓋了構(gòu)建計(jì)算機(jī)代數(shù)系統(tǒng)的最基礎(chǔ)也是最重要的內(nèi)容。許多內(nèi)容是第一次被系統(tǒng)地整理出現(xiàn)在中文文獻(xiàn)中,一些領(lǐng)
    發(fā)表于 03-24 14:18 ?31次下載

    圖解:卷積神經(jīng)網(wǎng)絡(luò)數(shù)學(xué)原理解析

    圖解:卷積神經(jīng)網(wǎng)絡(luò)數(shù)學(xué)原理解析 源自:數(shù)學(xué)中國(guó) 過(guò)去我們已經(jīng)知道被稱(chēng)為緊密連接的神經(jīng)網(wǎng)絡(luò)。這些網(wǎng)絡(luò)的神經(jīng)元被分成若干組,形成連續(xù)的層。每一個(gè)這樣的神經(jīng)元都與相鄰層的每一個(gè)神經(jīng)元相連。下圖顯示了這種
    的頭像 發(fā)表于 09-16 10:01 ?1519次閱讀
    圖解:卷積神經(jīng)網(wǎng)絡(luò)<b class='flag-5'>數(shù)學(xué)原理</b>解析

    詳解圖神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)原理2

    。 本文將流行的圖神經(jīng)網(wǎng)絡(luò)及其數(shù)學(xué)細(xì)微差別的進(jìn)行詳細(xì)的梳理和解釋?zhuān)瑘D深度學(xué)習(xí)背后的思想是學(xué)習(xí)具有節(jié)點(diǎn)和邊的圖的結(jié)構(gòu)和空間特征,這些節(jié)點(diǎn)和邊表示實(shí)體及其交互。
    的頭像 發(fā)表于 03-17 09:58 ?497次閱讀
    詳解圖神經(jīng)網(wǎng)絡(luò)的<b class='flag-5'>數(shù)學(xué)原理</b>2

    詳解圖神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)原理3

    。 本文將流行的圖神經(jīng)網(wǎng)絡(luò)及其數(shù)學(xué)細(xì)微差別的進(jìn)行詳細(xì)的梳理和解釋?zhuān)瑘D深度學(xué)習(xí)背后的思想是學(xué)習(xí)具有節(jié)點(diǎn)和邊的圖的結(jié)構(gòu)和空間特征,這些節(jié)點(diǎn)和邊表示實(shí)體及其交互。
    的頭像 發(fā)表于 03-17 09:58 ?849次閱讀
    詳解圖神經(jīng)網(wǎng)絡(luò)的<b class='flag-5'>數(shù)學(xué)原理</b>3

    探討GAN背后數(shù)學(xué)原理(上)

    GAN的風(fēng)暴席卷了整個(gè)深度學(xué)習(xí)圈子,任何任務(wù)似乎套上GAN的殼子,立馬就變得高大上了起來(lái)。那么,GAN究竟是什么呢? **GAN的主要應(yīng)用目標(biāo):** 生成式任務(wù)(生成、重建
    的頭像 發(fā)表于 03-17 10:01 ?456次閱讀
    <b class='flag-5'>探討</b><b class='flag-5'>GAN</b><b class='flag-5'>背后</b>的<b class='flag-5'>數(shù)學(xué)原理</b>(上)

    背后數(shù)學(xué)原理在應(yīng)用中得到驗(yàn)證

    IEC 61508 和 ISO 26262 都提供“經(jīng)過(guò)驗(yàn)證的使用”作為聲明合規(guī)性的替代途徑。在 IEC 61508 中,經(jīng)使用驗(yàn)證的術(shù)語(yǔ)稱(chēng)為路由 2S.更常見(jiàn)的路線(xiàn) 1S表示該項(xiàng)目的開(kāi)發(fā)符合標(biāo)準(zhǔn)的所有適用要求。路線(xiàn) 2S當(dāng)該項(xiàng)目的開(kāi)發(fā)不符合IEC 61508時(shí),可以使用,但有很多操作經(jīng)驗(yàn)可以表明其安全性。
    的頭像 發(fā)表于 06-27 16:59 ?479次閱讀
    <b class='flag-5'>背后</b>的<b class='flag-5'>數(shù)學(xué)原理</b>在應(yīng)用中得到驗(yàn)證