0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

探討GAN背后的數(shù)學(xué)原理(下)

jf_78858299 ? 來源:人工智能大講堂 ? 作者:人工智能大講堂 ? 2023-03-17 10:02 ? 次閱讀

2.2 判別器:有問題?GAN來了!

GAN由生成器G和判別器D組成。

其實上面我們已經(jīng)基本介紹了生成器G的由來了,并且我們遇到了一個問題: 圖片極其復(fù)雜的計算方式導(dǎo)致使用極大似然估計根本無從下手?。。。?/strong>

為了解決這個問題,我們引入了判別器D!

現(xiàn)在GAN的結(jié)構(gòu)就完備了??!

對于生成器G:

  1. G 是一個函數(shù),輸入圖片 ,輸出(上面已經(jīng)介紹了)

    圖片

  2. 先驗分布 圖片, 圖片和G共同決定的分布圖片

對于判別器D:

  1. D是一個函數(shù),輸入圖片,輸出一個scalar
  2. D用于評估圖片圖片之間的差異(解決上一小節(jié)提出的問題)

那么,GAN的最終目標(biāo)-->用符號化語言表示就是:

圖片

我們的目標(biāo)是得到使得式子圖片最小的生成器圖片.

關(guān)于V:

圖片

給定G, 圖片衡量的就是分布圖片圖片的差異。

因此,圖片也就是我們需要的使得差異最小的 G .

詳細解釋 V(G,D) :

對于圖片:

固定G ,最優(yōu)圖片 最大化:

圖片

假設(shè)D(x) 可以表達任何函數(shù)

此時再固定 x ,則對于 圖片,我們可將其看成是關(guān)于D的函數(shù): 圖片

圖片

解得

圖片

即:

圖片

則此時對于原式 V(G,D) (將圖片代入):

圖片

JSD表示JS散度,它是KL散度的一種變形,也表示兩個分布之間的差異:

圖片

與KL散度不同,JS散度是對稱的。

以上的公式推導(dǎo),證明了圖片確實是衡量了 圖片圖片之間的差異。

圖片

此時,最優(yōu)的G:

圖片

也就是使得圖片最小的G

圖片

當(dāng)圖片時,表示兩個分布完全相同。

對于圖片 ,令 圖片

我們該如何優(yōu)化從而獲得圖片呢???

我們希望通過最小化損失函數(shù)L(G) ,找到最優(yōu)的G。

這一步可以通過梯度下降實現(xiàn):

圖片

具體算法參考:

第一代:

  1. 給定圖片(隨機初始化)
  • 確定圖片 使得 V(圖片,D) 最大。此時 V(圖片,圖片) 表示圖片圖片的JS散度

  • 梯度下降:圖片 .得到

    圖片

第二代:

  1. 給定圖片
  • 確定圖片 使得V(圖片,D) 最大。此時V(圖片,圖片)表示圖片圖片的JS散度

  • 梯度下降:圖片 .得到

    圖片

。。。

后面的依此類推

以上算法有一個問題: 如何確定圖片使得 V (D ,G**)**** 最大???**

也就是:給定 G,如何計算 圖片

回答:

圖片采樣圖片

圖片采樣圖片

因此我們可以將圖片從期望值計算改寫為對樣本計算(近似估計):

圖片

這很自然地讓我們想到二分類問題中常使用的交叉熵loss

因此,我們不妨聯(lián)想:

D是一個二分類器,參數(shù)圖片

來自圖片的采樣圖片作為正樣本

來自圖片的采樣圖片作為負樣本

那么此時,我們就將問題轉(zhuǎn)化成了一個二分類問題:

交叉熵loss大 -->圖片圖片 JS散度小

交叉熵loss小 -->圖片圖片 JS散度大

此時,D就是可以使用一個神經(jīng)網(wǎng)絡(luò)作為二分類器,那么確定D,也就是可以使用梯度下降來優(yōu)化獲得D的最終參數(shù)。

GAN的最終算法流程:

初始化參數(shù)圖片(for D)和圖片(for G)

對于訓(xùn)練的每一輪:

第一部分 學(xué)習(xí)優(yōu)化判別器D:

  • 圖片采樣圖片

  • 圖片 采樣

    圖片

  • 通過生成器 圖片獲得生成樣本

    圖片

  • 梯度下降更新圖片來最大化 :

    圖片:

    圖片

注:以上第一部分可以重復(fù)多次:此過程本質(zhì)上是在測量兩分布之間的JS散度

第二部分 學(xué)習(xí)優(yōu)化生成器G:

  • 再從圖片采樣另一組圖片
  • 梯度下降更新圖片來最小化 : 圖片:圖片 .實際上圖片第一項與G無關(guān),梯度下降只需最小化圖片即可。

注:以上過程僅一次

最后的話:

其實在GAN之前,就已經(jīng)有Auto-Encoder,VAE這樣的方法來使用神經(jīng)網(wǎng)絡(luò)做生成式任務(wù)了。

GAN的最大的創(chuàng)新就是在于非常精妙地引入了判別器,從樣本的維度解決了衡量兩個分布差異的問題。

這種生成器和判別器對抗學(xué)習(xí)的模式,也必將在各種生成式任務(wù)中發(fā)揮其巨大的威力。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    19

    文章

    1952

    瀏覽量

    73873
  • 生成器
    +關(guān)注

    關(guān)注

    7

    文章

    318

    瀏覽量

    21069
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5511

    瀏覽量

    121376
收藏 人收藏

    評論

    相關(guān)推薦

    你知道XGBoost背后數(shù)學(xué)原理是什么嗎?

    在第一種方法的基礎(chǔ)上,每走過特定數(shù)量的臺階,都由韓梅梅去計算每一個臺階的損失函數(shù)值,并從中找出局部最小值,以免錯過全局最小值。每次韓梅梅找到局部最小值,她就發(fā)個信號,這樣李雷就永遠不會走錯路了。但這種方法對女孩子不公平,可憐的韓梅梅需要探索她附近的所有點并計算所有這些點的函數(shù)值。
    的頭像 發(fā)表于 08-22 08:59 ?6.5w次閱讀

    基于GaN的開關(guān)器件

    和電機控制中。他們的接受度和可信度正在逐漸提高。(請注意,基于GaN的射頻功放或功放也取得了很大的成功,但與GaN器件具有不同的應(yīng)用場合,超出了本文的范圍。)本文探討GaN器件的潛力
    發(fā)表于 06-21 08:27

    如何精確高效的完成GaN PA中的I-V曲線設(shè)計?

    GaN PA 設(shè)計?)后,了解I-V 曲線(亦稱為電流-電壓特性曲線)是一個很好的起點。本篇文章探討I-V 曲線的重要性,及其在非線性GaN 模型(如Modelithics Qorvo GaN
    發(fā)表于 07-31 06:44

    推導(dǎo)GAN公式

    GAN數(shù)學(xué)推導(dǎo)和案例應(yīng)用
    發(fā)表于 04-13 09:34

    GraphSAGEGNN算法的數(shù)學(xué)原理是什么?

    本文深入討論了GraphSAGEGNN算法的數(shù)學(xué)原理,并從多個維度分析了GNN加速器設(shè)計中的技術(shù)挑戰(zhàn)。
    發(fā)表于 06-17 08:56

    變壓變頻調(diào)速的數(shù)學(xué)原理是什么

    變壓變頻調(diào)速系統(tǒng)的基本原則是什么?變壓變頻調(diào)速的數(shù)學(xué)原理是什么?
    發(fā)表于 08-03 06:10

    dq坐標(biāo)變換數(shù)學(xué)原理

    dq坐標(biāo)變換數(shù)學(xué)原理
    發(fā)表于 12-20 22:56 ?19次下載

    深入卷積神經(jīng)網(wǎng)絡(luò)背后數(shù)學(xué)原理

    在計算機神經(jīng)視覺技術(shù)的發(fā)展過程中,卷積神經(jīng)網(wǎng)絡(luò)成為了其中的重要組成部分,本文對卷積神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)原理進行了介紹。
    的頭像 發(fā)表于 04-25 14:52 ?3576次閱讀

    計算機代數(shù)系統(tǒng)數(shù)學(xué)原理

    本文主要討論計算機代數(shù)系統(tǒng)的數(shù)學(xué)原理,由十六個章節(jié)組成。內(nèi)容包含高精度運算,數(shù)論,數(shù)學(xué)常數(shù),精確線性代數(shù),多項式,方程求解,符號求和,符號積分,微分方程符號解等九大部分,涵蓋了構(gòu)建計算機代數(shù)系統(tǒng)的最基礎(chǔ)也是最重要的內(nèi)容。許多內(nèi)容是第一次被系統(tǒng)地整理出現(xiàn)在中文文獻中,一些領(lǐng)
    發(fā)表于 03-24 14:18 ?31次下載

    圖解:卷積神經(jīng)網(wǎng)絡(luò)數(shù)學(xué)原理解析

    圖解:卷積神經(jīng)網(wǎng)絡(luò)數(shù)學(xué)原理解析 源自:數(shù)學(xué)中國 過去我們已經(jīng)知道被稱為緊密連接的神經(jīng)網(wǎng)絡(luò)。這些網(wǎng)絡(luò)的神經(jīng)元被分成若干組,形成連續(xù)的層。每一個這樣的神經(jīng)元都與相鄰層的每一個神經(jīng)元相連。下圖顯示了這種
    的頭像 發(fā)表于 09-16 10:01 ?1617次閱讀
    圖解:卷積神經(jīng)網(wǎng)絡(luò)<b class='flag-5'>數(shù)學(xué)原理</b>解析

    詳解圖神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)原理2

    。 本文將流行的圖神經(jīng)網(wǎng)絡(luò)及其數(shù)學(xué)細微差別的進行詳細的梳理和解釋,圖深度學(xué)習(xí)背后的思想是學(xué)習(xí)具有節(jié)點和邊的圖的結(jié)構(gòu)和空間特征,這些節(jié)點和邊表示實體及其交互。
    的頭像 發(fā)表于 03-17 09:58 ?539次閱讀
    詳解圖神經(jīng)網(wǎng)絡(luò)的<b class='flag-5'>數(shù)學(xué)原理</b>2

    詳解圖神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)原理3

    。 本文將流行的圖神經(jīng)網(wǎng)絡(luò)及其數(shù)學(xué)細微差別的進行詳細的梳理和解釋,圖深度學(xué)習(xí)背后的思想是學(xué)習(xí)具有節(jié)點和邊的圖的結(jié)構(gòu)和空間特征,這些節(jié)點和邊表示實體及其交互。
    的頭像 發(fā)表于 03-17 09:58 ?962次閱讀
    詳解圖神經(jīng)網(wǎng)絡(luò)的<b class='flag-5'>數(shù)學(xué)原理</b>3

    探討GAN背后數(shù)學(xué)原理(上)

    GAN的風(fēng)暴席卷了整個深度學(xué)習(xí)圈子,任何任務(wù)似乎套上GAN的殼子,立馬就變得高大上了起來。那么,GAN究竟是什么呢? **GAN的主要應(yīng)用目標(biāo):** 生成式任務(wù)(生成、重建
    的頭像 發(fā)表于 03-17 10:01 ?501次閱讀
    <b class='flag-5'>探討</b><b class='flag-5'>GAN</b><b class='flag-5'>背后</b>的<b class='flag-5'>數(shù)學(xué)原理</b>(上)

    背后數(shù)學(xué)原理在應(yīng)用中得到驗證

    IEC 61508 和 ISO 26262 都提供“經(jīng)過驗證的使用”作為聲明合規(guī)性的替代途徑。在 IEC 61508 中,經(jīng)使用驗證的術(shù)語稱為路由 2S.更常見的路線 1S表示該項目的開發(fā)符合標(biāo)準(zhǔn)的所有適用要求。路線 2S當(dāng)該項目的開發(fā)不符合IEC 61508時,可以使用,但有很多操作經(jīng)驗可以表明其安全性。
    的頭像 發(fā)表于 06-27 16:59 ?548次閱讀
    <b class='flag-5'>背后</b>的<b class='flag-5'>數(shù)學(xué)原理</b>在應(yīng)用中得到驗證

    傅里葉變換的數(shù)學(xué)原理

    傅里葉變換的數(shù)學(xué)原理主要基于一種將函數(shù)分解為正弦和余弦函數(shù)(或復(fù)指數(shù)函數(shù))的線性組合的思想。以下是對傅里葉變換數(shù)學(xué)原理的介紹: 一、基本原理 傅里葉級數(shù) :對于周期性連續(xù)信號,可以將其表示為傅里葉
    的頭像 發(fā)表于 11-14 09:27 ?681次閱讀