GAN對(duì)于人工智能的意義,可以從它名字的三部分說(shuō)起:Generative Adversarial Networks。為了方便講述,也緬懷過(guò)去兩周在某論壇上水掉的時(shí)間,我先從Networks講起。
Networks:(深度)神經(jīng)網(wǎng)絡(luò)
自從12年AlexNet橫空出世后,神經(jīng)網(wǎng)絡(luò)儼然已成為現(xiàn)在learning的主流。比起貝葉斯學(xué)派的強(qiáng)先驗(yàn)假設(shè)(priori),SVM在核函數(shù)(kernel)上的反復(fù)鉆研,神經(jīng)網(wǎng)絡(luò)不需要科研者過(guò)多關(guān)注細(xì)節(jié),只需要提供好海量的數(shù)據(jù)和設(shè)置好超參數(shù),便能達(dá)到不錯(cuò)的效果。用武俠小說(shuō)的方式來(lái)說(shuō),便是各大門派高手潛心十余載修煉一陽(yáng)指/九陰真經(jīng)/麒麟臂等神功,比試時(shí)卻發(fā)現(xiàn)有一無(wú)名小卒內(nèi)力浩瀚如海,出手雖毫無(wú)章法可言,但在內(nèi)功的加持下,輕松打得眾人抬不起頭。
Deep系列的算法不僅在眾多benchmark上霸據(jù)榜首,其衍生應(yīng)用也給人工智能帶來(lái)了一股新的浪潮,例如創(chuàng)作藝術(shù)品(Gatys 的 Neural Alorightm for Artistic Style),AlphaGo(CNN估值 + 蒙特卡洛剪枝),高質(zhì)量的機(jī)器翻譯(Attention + seq2seq)等等。這些衍生應(yīng)用在部分任務(wù)上,已經(jīng)能媲美人類中的專家,讓人不禁浮想強(qiáng)人工智能(strong AI)的到來(lái)。然而,縱使深度網(wǎng)絡(luò)(Deep Neural Networks)再?gòu)?qiáng)大,它也有自己的局限,生成模型上的不盡人意便是其中之一。
Generative(Model):生成模型
機(jī)器學(xué)習(xí)的模型可大體分為兩類,生成模型(Generative Model)和判別模型(Discriminative Model)。判別模型需要輸入變量,通過(guò)某種模型來(lái)預(yù)測(cè)。生成模型是給定某種隱含信息,來(lái)隨機(jī)產(chǎn)生觀測(cè)數(shù)據(jù)。舉個(gè)簡(jiǎn)單的例子,
判別模型:給定一張圖,判斷這張圖里的動(dòng)物是貓還是狗
生成模型:給一系列貓的圖片,生成一張新的貓咪(不在數(shù)據(jù)集里)
眾所周知的imagenet-1000圖像分類,自動(dòng)駕駛的圖片語(yǔ)義分割,人體骨架點(diǎn)的預(yù)測(cè)都屬于判別模型,即給定輸入預(yù)測(cè)某種特征。實(shí)際上12~14年的大部分工作都屬于判別模型,為什么呢,原因之一便是判別模型的損失函數(shù)(loss)方便定義。
回到根源,什么是機(jī)器學(xué)習(xí)?一句話來(lái)概括就是,在訓(xùn)練過(guò)程中給予回饋,使得結(jié)果接近我們的期望。對(duì)于分類問(wèn)題(classification),我們希望loss在接近bound以后,就不要再有變化,所以我們選擇交叉熵(Cross Entropy)作為回饋;在回歸問(wèn)題(regression)中,我們則希望loss只有在兩者一摸一樣時(shí)才保持不變,所以選擇點(diǎn)之間的歐式距離(MSE)作為回饋。損失函數(shù)(回饋)的選擇,會(huì)明顯影響到訓(xùn)練結(jié)果的質(zhì)量,是設(shè)計(jì)模型的重中之重。這五年來(lái),神經(jīng)網(wǎng)絡(luò)的變種已有不下幾百種,但損失函數(shù)卻寥寥無(wú)幾。例如caffe的官方文檔中,只提供了八種標(biāo)準(zhǔn)損失函數(shù) Caffe | Layer Catalogue。
對(duì)于判別模型,損失函數(shù)是容易定義的,因?yàn)檩敵龅哪繕?biāo)相對(duì)簡(jiǎn)單。但對(duì)于生成模型,損失函數(shù)的定義就不是那么容易。例如對(duì)于NLP方面的生成語(yǔ)句,雖然有BLEU這一優(yōu)秀的衡量指標(biāo),但由于難以求導(dǎo),以至于無(wú)法放進(jìn)模型訓(xùn)練;對(duì)于生成貓咪圖片的任務(wù),如果簡(jiǎn)單地將損失函數(shù)定義為“和已有圖片的歐式距離”,那么結(jié)果將是數(shù)據(jù)庫(kù)里圖片的詭異混合,效果慘不忍睹。當(dāng)我們希望神經(jīng)網(wǎng)絡(luò)畫(huà)一只貓的時(shí)候,顯然是希望這張圖有一個(gè)動(dòng)物的輪廓、帶質(zhì)感的毛發(fā)、和一個(gè)霸氣的眼神,而不是冷冰冰的歐式距離最優(yōu)解。如何將我們對(duì)于貓的期望放到模型中訓(xùn)練呢?這就是GAN的Adversarial部分解決的問(wèn)題。
Adversarial:對(duì)抗(互懟 )
在generative部分提到了,我們對(duì)于貓(生成結(jié)果)的期望,往往是一個(gè)曖昧不清,難以數(shù)學(xué)公理化定義的范式。但等一下,說(shuō)到處理曖昧不清、難以公理化的問(wèn)題,之前提到的判別任務(wù)不也是嗎?比如圖像分類,一堆RGB像素點(diǎn)和最后N類別的概率分布模型,顯然是無(wú)法從傳統(tǒng)數(shù)學(xué)角度定義的。那為何,不把生成模型的回饋部分,交給判別模型呢?這就是Goodfellow天才般的創(chuàng)意--他將機(jī)器學(xué)習(xí)中的兩大類模型,Generative和Discrimitive給緊密地聯(lián)合在了一起。
模型一覽
對(duì)抗生成網(wǎng)絡(luò)主要由生成部分G,和判別部分D組成。訓(xùn)練過(guò)程描述如下
在整個(gè)過(guò)程中,(火眼晶晶,不錯(cuò)殺也不漏殺)。而則要使得,即讓生成的圖片盡可能以假亂真。整個(gè)訓(xùn)練過(guò)程就像是兩個(gè)玩家在相互對(duì)抗,也正是這個(gè)名字Adversarial的來(lái)源。在論文中[1406.2661] Generative Adversarial Networks ,Goodfellow從理論上證明了該算法的收斂性,以及在模型收斂時(shí),生成數(shù)據(jù)具有和真實(shí)數(shù)據(jù)相同的分布(保證了模型效果)。
從研究角度,GAN給眾多生成模型提供了一種新的訓(xùn)練思路,催生了許多后續(xù)作品。例如根據(jù)自己喜好定制二次元妹子(逃),根據(jù)文字生成對(duì)應(yīng)描述圖片(Newmu/dcgan_code, hanzhanggit/StackGAN),甚至利用標(biāo)簽生成3D宜家家居模型(zck119/3dgan-release),這些作品的效果無(wú)一不令人驚嘆。同時(shí),難人可貴的是這篇論文有很強(qiáng)的數(shù)學(xué)論證,不同于前幾年的套模型的結(jié)果說(shuō)話,而是從理論上保證了模型的可靠性。雖然目前訓(xùn)練還時(shí)常碰到困難,后續(xù)已有更新工作改善該問(wèn)題(WGAN, Loss Sensetive GAN, Least Square GAN),相信終有一日能克服。
從通用人工智能高層次來(lái)看,這個(gè)模型率先使用神經(jīng)網(wǎng)絡(luò)來(lái)指導(dǎo)神經(jīng)網(wǎng)絡(luò),頗有一種奇妙的美感:仿佛是在辯日的兩小兒一樣,一開(kāi)始兩者都是懵懂的幼兒,但通過(guò)觀察周圍,相互討論,逐漸進(jìn)化出了對(duì)外界的認(rèn)知。 這不正是吾等所期望的終極智能么 -- 機(jī)器的知識(shí)來(lái)源不再局限于人類,而是可以彼此之間相互交流相互學(xué)習(xí)。也難怪Yann Lecun贊嘆GAN是機(jī)器學(xué)習(xí)近十年來(lái)最有意思的想法
未來(lái)智能實(shí)驗(yàn)室是人工智能學(xué)家與科學(xué)院相關(guān)機(jī)構(gòu)聯(lián)合成立的人工智能,互聯(lián)網(wǎng)和腦科學(xué)交叉研究機(jī)構(gòu)。
未來(lái)智能實(shí)驗(yàn)室的主要工作包括:建立AI智能系統(tǒng)智商評(píng)測(cè)體系,開(kāi)展世界人工智能智商評(píng)測(cè);開(kāi)展互聯(lián)網(wǎng)(城市)云腦研究計(jì)劃,構(gòu)建互聯(lián)網(wǎng)(城市)云腦技術(shù)和企業(yè)圖譜,為提升企業(yè),行業(yè)與城市的智能水平服務(wù)。
-
人工智能
+關(guān)注
關(guān)注
1792文章
47373瀏覽量
238859 -
GaN
+關(guān)注
關(guān)注
19文章
1944瀏覽量
73623
原文標(biāo)題:GAN 的發(fā)展對(duì)于研究通用人工智能有什么意義?
文章出處:【微信號(hào):AItists,微信公眾號(hào):人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論