0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Facebook提出了一種Exemplar GANs的方法將照片中閉著的眼睛“打開(kāi)”

DPVg_AI_era ? 來(lái)源:未知 ? 作者:李倩 ? 2018-07-03 09:57 ? 次閱讀

如何將照片中閉著的眼睛“打開(kāi)”,一直是計(jì)算機(jī)視覺(jué)和圖形學(xué)中的難題。Facebook提出了一種Exemplar GANs(ExGANs)的方法,在條件GAN的基礎(chǔ)上加入?yún)⒖?a target="_blank">信息,能合成逼真且自然的眼睛,肉眼幾乎無(wú)法分辨。

現(xiàn)在有很多方法可以美化照片,讓你看起來(lái)更好看,簡(jiǎn)單的,比如消除紅眼或者鏡頭眩光,復(fù)雜的,甚至可能讓你看起來(lái)變了一個(gè)人。

但是,到目前為止,還沒(méi)有一個(gè)很好的辦法處理照相時(shí)眨眼的問(wèn)題:當(dāng)拍照的那一瞬間眼睛正好閉上了,那么……就只能重新拍一張。

不過(guò),現(xiàn)在好了,F(xiàn)acebook的一項(xiàng)最新研究可以很好地解決這個(gè)問(wèn)題,而且效果驚艷。

Facebook的新技術(shù)讓你完美睜眼:第一列和第二列是ground truth(分別對(duì)應(yīng)正常和閉眼的情況);第三列是目前商用軟件中效果最好的Adobe Photoshop Elements的結(jié)果;第四列是Facebook這次新提出的技術(shù)ExGAN。

深度學(xué)習(xí)讓計(jì)算機(jī)“腦補(bǔ)”,風(fēng)格轉(zhuǎn)移合成逼真細(xì)節(jié)

Facebook在他們發(fā)表于CVPR 2018的論文“Eye In-Painting with Exemplar Generative Adversarial Networks”中描述了這項(xiàng)工作。

這里提到的“In-Painting”,也即圖像補(bǔ)全,最初是一個(gè)傳統(tǒng)圖形學(xué)的問(wèn)題,在一幅圖像上挖一個(gè)洞,看如何利用其他的信息將這個(gè)洞補(bǔ)全,并且讓人眼無(wú)法辨別。

這個(gè)問(wèn)題對(duì)人類來(lái)說(shuō)似乎很容易,只要稍微想象一下,大家很容易就能腦補(bǔ)出洞里應(yīng)該有什么。但是,這個(gè)任務(wù)對(duì)于計(jì)算機(jī)而言卻十分困難,因?yàn)檫@個(gè)問(wèn)題沒(méi)有唯一確定的解,如何利用其他的信息,如何判斷補(bǔ)全的結(jié)果是否足夠逼真,都是要考慮的問(wèn)題。

近來(lái),深度學(xué)習(xí)的發(fā)展,得益于神經(jīng)網(wǎng)絡(luò)對(duì)圖像中高層特征(high-level feature)的提取能力,研究人員可以將大數(shù)據(jù)和high-level feature組合起來(lái),使這個(gè)十分困難的問(wèn)題得到了比較好的解決。

例如,2017年,來(lái)自伯克利和Adobe等機(jī)構(gòu)的研究人員提出了一種混合優(yōu)化方法(joint optimization),利用編碼器 - 解碼器CNN的結(jié)構(gòu)化預(yù)測(cè)和神經(jīng)補(bǔ)丁的力量,成功合成了實(shí)際的高頻細(xì)節(jié)。

對(duì)于給定的一張帶有孔洞(256×256)的圖像(512×512),算法可以合成出更清晰連貫的孔洞內(nèi)容(d)。上圖展示了混合優(yōu)化方法與用Context Encoders(b)、PatchMatch(c)這兩種方法產(chǎn)生的結(jié)果的比較。

類似于風(fēng)格轉(zhuǎn)移(style transfer),他們的方法將編碼器-解碼器預(yù)測(cè)作為全局內(nèi)容約束,并且將孔洞和已知區(qū)域之間的局部神經(jīng)補(bǔ)丁相似性作為風(fēng)格(style)約束。

補(bǔ)全眼睛,還是個(gè)大問(wèn)題

但是,上述方法還是存在種種局限,其中之一就是對(duì)眼睛的補(bǔ)完。

這并不是說(shuō)眼睛——“人類心靈的窗口”很難模擬。實(shí)際上,目前的深度網(wǎng)絡(luò)已經(jīng)能在語(yǔ)義上產(chǎn)生逼真的、令人信服的結(jié)果。

但是,大多數(shù)方法并不能保留照片中人物的“身份”(identity)。DNN可以學(xué)習(xí)“打開(kāi)”一雙閉合的眼睛,但是模型本身并不能保證新的眼睛對(duì)應(yīng)于這個(gè)人的特定眼睛結(jié)構(gòu)。

DNN只會(huì)插入一雙與訓(xùn)練集中相似的臉相對(duì)應(yīng)的眼睛。這時(shí)候,如果一個(gè)人有一些明顯的特征,比如眼睛的形狀比較特別,就不會(huì)在生成的部分中得到體現(xiàn)。

Facebook提出ExGAN,比cGAN更具表現(xiàn)力

Facebook作為全球最大的社交網(wǎng)絡(luò),每天乃至每一分鐘都有大量用戶將自己的照片上傳,而其中就有很多是閉眼的照片。

坐擁可能是全球最大的閉眼照片數(shù)據(jù)集,F(xiàn)acebook的研究人員自然會(huì)想,能不能在這個(gè)基礎(chǔ)上做些什么。

于是,有鑒于生成對(duì)抗網(wǎng)絡(luò)(GAN)在生成逼真圖像中的應(yīng)用,F(xiàn)acebook的Brian Dolhansky和Cristian Canton Ferrer提出了一個(gè)Exemplar GANs (ExGANs)。

ExGAN是條件GAN(cGAN)的擴(kuò)展,利用示例信息,生成高質(zhì)量、個(gè)性化的圖像補(bǔ)全。

與以前的條件GAN不同,在判別器網(wǎng)絡(luò)里插入了額外的參考信息(參考圖片或者感知代碼),因此ExGAN有更強(qiáng)的表現(xiàn)力。

ExGANs的總體訓(xùn)練流程可以概括為:

從輸入圖像中標(biāo)出眼睛;

以參考圖像(reference image)或感知代碼(perceptual code)為指導(dǎo),對(duì)圖像進(jìn)行補(bǔ)全;

通過(guò)輸入圖像和補(bǔ)全圖像之間的內(nèi)容/重構(gòu)損失,計(jì)算生成器參數(shù)的梯度;

用補(bǔ)全圖像、另一個(gè)ground truth圖像和參考圖像或感知代碼,計(jì)算鑒別器參數(shù)的梯度;

通過(guò)生成器反向傳播鑒別器的誤差。還有可選的一步,用感知損失對(duì)生成器的參數(shù)進(jìn)行更新。其中,函數(shù)C(I)是身份函數(shù)。

ExGAN,讓閉眼照片完美“開(kāi)眼”

ExGAN從樣例中,不僅了解了這個(gè)人的眼睛看的是什么,還了解了這個(gè)人的眼睛的結(jié)構(gòu)、瞳孔的顏色,等等。最終補(bǔ)全的結(jié)果非常逼真而且自然。

在測(cè)試中,人們誤把假眼睛睜開(kāi)的照片當(dāng)成真實(shí)的,或者有超過(guò)一半的時(shí)間他們不能確定哪個(gè)是哪個(gè)??戳松厦娴膶?shí)例,除非我知道照片肯定是被篡改過(guò)的,不然我在信息流中滾動(dòng)瀏覽時(shí)我可能根本就不會(huì)注意到。

在下圖中,左邊第一列是ground truth,第二列是其他方法,第三列和第四列都是ExGANs的結(jié)果。其中,第三列是使用了參考圖像的結(jié)果,第四列是使用了感知代碼的結(jié)果。(圖片可以點(diǎn)擊放大查看。)

在某些情況下,ExGANs仍然會(huì)失敗,比如當(dāng)一個(gè)人的眼睛被一縷頭發(fā)遮住了一部分,或者有時(shí)不能正確地著色,就會(huì)產(chǎn)生一些奇怪的人工痕跡。但這些都是可以解決的問(wèn)題。

研究者表示,Exemplar GANs是一個(gè)通用的框架,因此可以拓展到其他計(jì)算機(jī)視覺(jué)任務(wù)乃至其他領(lǐng)域的問(wèn)題上。

在這次的研究中,基于參考圖片和基于感知代碼的兩種方法是分開(kāi)的,因?yàn)樗麄兿胝故具@兩種方法都是可行的。未來(lái),他們會(huì)研究將這兩種方法結(jié)合在一起,比如在生成器里使用參考圖片,在判別器里使用感知代碼,從而生成更加逼真可信的眼睛補(bǔ)全。

不論如何,我們的照片將變得更加自然和漂亮,而鑒別“換臉”或者假視頻的任務(wù),也將更具挑戰(zhàn)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Facebook
    +關(guān)注

    關(guān)注

    3

    文章

    1429

    瀏覽量

    54848
  • 計(jì)算機(jī)視覺(jué)

    關(guān)注

    8

    文章

    1699

    瀏覽量

    46055
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5511

    瀏覽量

    121355

原文標(biāo)題:【CVPR 2018】照片閉眼也無(wú)妨,F(xiàn)acebook黑科技完美補(bǔ)全大眼睛

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    一種簡(jiǎn)單的逆變器輸出直流分量消除方法

    逆變器輸出直流分量會(huì)對(duì)逆變器本身和交流負(fù)載產(chǎn)生不利影響,必須消除直流分量來(lái)保障逆變器的可靠運(yùn)行。提出了一種簡(jiǎn)單的消除輸出直流分量的方法,并在理論分析的基礎(chǔ)上,通過(guò)對(duì)1臺(tái)220V、1 kW的逆變器系統(tǒng)
    發(fā)表于 12-27 11:20

    一種基于FPGA的UART實(shí)現(xiàn)方法設(shè)計(jì)

    摘要:UART作為RS232協(xié)議的控制接口得到了廣泛的應(yīng)用,UART的功能集成在FPGA芯片中,可使整個(gè)系統(tǒng)更為靈活、緊湊,減小整個(gè)電路的體積,提高系統(tǒng)的可靠性和穩(wěn)定性。提出了一種
    發(fā)表于 06-21 07:17

    Facebook背后的軟件揭秘

    Facebook的擴(kuò)展性挑戰(zhàn)在我們討論細(xì)節(jié)之前,這里有Facebook已經(jīng)做的軟件規(guī)模:◆Facebook有570000000000每月頁(yè)面瀏覽量 (據(jù)Google Ad Plan
    發(fā)表于 07-16 06:48

    一種新的雙T型選頻網(wǎng)絡(luò)電路的設(shè)計(jì)方法

    本文介紹一種新型的PIN光探測(cè)器(光敏二極管)的光電檢測(cè)放大器設(shè)計(jì)方法。依照弱信號(hào)檢測(cè)理論,在電路設(shè)計(jì)時(shí)采取多項(xiàng)措施力圖提高信噪比。為了獲得良好的帶通濾波效果,本文還提出了
    發(fā)表于 04-23 07:15

    為什么要提出一種并行通信方法?并行通信方法有什么特點(diǎn)?

    為什么要提出一種并行通信方法?并行通信方法有什么特點(diǎn)?
    發(fā)表于 05-27 06:16

    一種實(shí)用的混沌保密編碼方法

    一種實(shí)用的混沌保密編碼方法 基于實(shí)用符號(hào)動(dòng)力學(xué)的基礎(chǔ)理論,提出了一種實(shí)用的混沌保密編碼方法,該方法
    發(fā)表于 11-18 10:55 ?10次下載

    一種特殊陣列實(shí)現(xiàn)DOA估計(jì)的方法

    一種特殊陣列實(shí)現(xiàn)DOA估計(jì)的方法:提出了一種基于特殊陣列形式實(shí)現(xiàn)doa估計(jì)的方法,在均勻線性陣列(UniformLinearArray,UL
    發(fā)表于 03-18 16:18 ?19次下載

    開(kāi)關(guān)電源控制芯片中減小EMI的一種電路實(shí)現(xiàn)方法

    從減小噪聲源的思路出發(fā), 根據(jù)擴(kuò)頻理論, 提出了一種應(yīng)用在開(kāi)關(guān)電源控制芯片中的減小EM I的電路實(shí)現(xiàn)方法. 采用三角波調(diào)制的方法調(diào)制振蕩器的
    發(fā)表于 11-10 16:12 ?114次下載
    開(kāi)關(guān)電源控制芯<b class='flag-5'>片中</b>減小EMI的<b class='flag-5'>一種</b>電路實(shí)現(xiàn)<b class='flag-5'>方法</b>

    一種融合在線膚色模型的眼睛狀態(tài)識(shí)別算法

    針對(duì)人臉視頻中眼睛定位精度影響眼睛狀態(tài)識(shí)別正確率問(wèn)題,提出了一種融合在線膚色模型的眼睛狀態(tài)識(shí)別算法。首先,在人臉主動(dòng)表觀模型( AAM)定位
    發(fā)表于 01-08 10:36 ?0次下載

    從電路的角度出發(fā),提出了一種新的SOC跨時(shí)鐘域同步電路設(shè)計(jì)的方法

    針對(duì)當(dāng)前SOC內(nèi)部時(shí)鐘越來(lái)越復(fù)雜、接口越來(lái)越多以及亞穩(wěn)態(tài)、漏信號(hào)等常見(jiàn)的各種問(wèn)題,分析了以往的優(yōu)化方法的優(yōu)缺點(diǎn),然后從電路的角度出發(fā),提出了一種新的SOC跨時(shí)鐘域同步電路設(shè)計(jì)的方法。
    的頭像 發(fā)表于 02-09 14:30 ?6701次閱讀
    從電路的角度出發(fā),<b class='flag-5'>提出了</b><b class='flag-5'>一種</b>新的SOC跨時(shí)鐘域同步電路設(shè)計(jì)的<b class='flag-5'>方法</b>

    OpenAI提出了一種回報(bào)設(shè)置方法RND

    在開(kāi)發(fā)RND之前,OpenAI的研究人員和加州大學(xué)伯克利分校的學(xué)者進(jìn)行了合作,他們測(cè)試了在沒(méi)有環(huán)境特定回報(bào)的情況下,智能體的學(xué)習(xí)情況。因?yàn)閺睦碚撋蟻?lái)說(shuō),好奇心提供了一種更簡(jiǎn)單的方法來(lái)教授智能體如何與各種環(huán)境進(jìn)行交互,它不需要人為的回報(bào)設(shè)計(jì)。
    的頭像 發(fā)表于 11-05 15:15 ?3201次閱讀

    Facebook提出了一種在虛擬現(xiàn)實(shí)環(huán)境中表征真實(shí)世界對(duì)象的解決方案

    )”的專利中指出,VR用戶有時(shí)渴望與真實(shí)世界對(duì)象交互,但由于傳統(tǒng)頭顯的設(shè)計(jì),其無(wú)法或難以確定真實(shí)世界對(duì)象的位置。為了解決這個(gè)問(wèn)題,Facebook提出了一種在虛擬現(xiàn)實(shí)環(huán)境中表征真實(shí)世界對(duì)象的解決方案。
    發(fā)表于 01-28 09:47 ?1156次閱讀
    <b class='flag-5'>Facebook</b><b class='flag-5'>提出了</b><b class='flag-5'>一種</b>在虛擬現(xiàn)實(shí)環(huán)境中表征真實(shí)世界對(duì)象的解決方案

    英偉達(dá)提出了一種稱為安全力場(chǎng)的方法避免車(chē)輛碰撞

    SFF主要由兩個(gè)交通主體當(dāng)前的狀態(tài)決定,它將描述其中個(gè)主體在另個(gè)主體出現(xiàn)時(shí)將如何行動(dòng),如果主體服從約束避免不安全的碰撞發(fā)生。它在基本的碰撞規(guī)避層上提出了
    的頭像 發(fā)表于 10-01 16:40 ?2859次閱讀

    華裔女博士提出Facebook提出用于超參數(shù)調(diào)整的自我監(jiān)督學(xué)習(xí)框架

    【導(dǎo)讀】Facebook的研究人員近日提出了一種用于超參數(shù)調(diào)整的自我監(jiān)督學(xué)習(xí)框架。
    的頭像 發(fā)表于 04-26 09:45 ?1787次閱讀
    華裔女博士<b class='flag-5'>提出</b>:<b class='flag-5'>Facebook</b><b class='flag-5'>提出</b>用于超參數(shù)調(diào)整的自我監(jiān)督學(xué)習(xí)框架

    生成對(duì)抗網(wǎng)絡(luò)(GANs)的原理與應(yīng)用案例

    生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Networks,GANs)是一種由蒙特利爾大學(xué)的Ian Goodfellow等人在2014年提出的深度學(xué)習(xí)算法。GANs
    的頭像 發(fā)表于 07-09 11:34 ?1185次閱讀