0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

?多模態(tài)風(fēng)格遷移——生成更加美麗動(dòng)人的風(fēng)格圖像

nlfO_thejiangme ? 來(lái)源:lp ? 2019-05-01 14:11 ? 次閱讀

對(duì)風(fēng)格圖像的風(fēng)格進(jìn)行聚類實(shí)現(xiàn)多模態(tài)表示,并對(duì)風(fēng)格與內(nèi)容圖的空間特征進(jìn)行匹配實(shí)現(xiàn)了具有多種模態(tài)風(fēng)格的、具有內(nèi)容自適應(yīng)性風(fēng)格遷移。

圖像風(fēng)格遷移是一種利用風(fēng)格圖像中的特征將內(nèi)容圖像渲染成類似風(fēng)格圖像效果的技術(shù),隨著深度學(xué)習(xí)的發(fā)展越來(lái)越精美的圖像被生成出來(lái)甚至可以與專業(yè)畫(huà)家相媲美。由于人們發(fā)現(xiàn)卷積特征間的相關(guān)性可以表示圖像的風(fēng)格,這使得迭代優(yōu)化網(wǎng)絡(luò)參數(shù)或者利用前傳網(wǎng)絡(luò)生成風(fēng)格圖像成為可能,目前的方法主要利用風(fēng)格圖的預(yù)訓(xùn)練模型來(lái)對(duì)任意的輸入進(jìn)行風(fēng)格化處理,或者抽取風(fēng)格圖的特征對(duì)內(nèi)容圖進(jìn)行風(fēng)格化。這些方法大都假設(shè)圖像的風(fēng)格可以通過(guò)格拉姆矩陣等深度特征的全局統(tǒng)計(jì)信息來(lái)描述。

盡管這些方法可以保存內(nèi)容圖像并匹配風(fēng)格圖像的特征,但很多時(shí)候還是會(huì)在局部產(chǎn)生一系列扭曲和變形,造成明顯的人工痕跡。如何處理這些問(wèn)題成為了風(fēng)格遷移領(lǐng)域的研究難點(diǎn)和熱點(diǎn)。下圖展示了先前方法的風(fēng)格遷移圖像的一些結(jié)果,其中第一列大圖為內(nèi)容圖,右下角小圖為風(fēng)格圖,最后一列為本文提出的多模態(tài)風(fēng)格遷移(MultimodalStyleTransfer,MST)方法:

在第一行中左下角的風(fēng)格圖像中包含一系列復(fù)雜的紋理和線條,先前的方法無(wú)法區(qū)分風(fēng)格圖像中不同的風(fēng)格,并且對(duì)于內(nèi)容圖像不加區(qū)分地進(jìn)行了風(fēng)格化處理,這使得在背景天空等區(qū)域出現(xiàn)了一些較為明顯的線條,破壞了內(nèi)容圖原有的連續(xù)性。讓我們?cè)賮?lái)看看第二行,這里的風(fēng)格圖像模式清晰,包含了統(tǒng)一的背景和紅色/黑色的前景。AdaIN,WCT和LST等方法都無(wú)法較好的保持內(nèi)容圖像的結(jié)構(gòu)特征,受到?jīng)_洗效應(yīng)(wash-outartifacts.)的影響使得很多內(nèi)容細(xì)節(jié)變得模糊。這主要是由于單調(diào)的背景在風(fēng)格圖中占比過(guò)大,造成了背景全局風(fēng)格特征中占據(jù)了主導(dǎo)地位。從這些結(jié)果中可以看出類似格拉姆矩陣或協(xié)方差均值這類全局單模態(tài)的統(tǒng)計(jì)表示不足以表達(dá)特征圖豐富、多模態(tài)的特征。理想的特征表達(dá)應(yīng)該是具有空間分布的特征模式。

盡管基于圖像片的方法這些模型可以在內(nèi)容圖像和風(fēng)格圖像具有相似結(jié)構(gòu)特征時(shí)生成視覺(jué)效果較好的風(fēng)格圖,但這些方法很多時(shí)候會(huì)在生成圖像中引入不該出現(xiàn)的風(fēng)格模式。在上圖中最后兩行的圖像中可以明顯看到這些結(jié)果。例如風(fēng)格圖像中的眼睛、嘴唇等模式都會(huì)被copy到背景中(倒數(shù)第二行),甚至在最后一行中我們可以看出內(nèi)容圖像已經(jīng)發(fā)生改變,女孩的臉型受到了風(fēng)格圖像的影響。這些缺點(diǎn)大大限制了生成高質(zhì)量風(fēng)格圖像的應(yīng)用,為了解決這些問(wèn)題研究人員從風(fēng)格分布的角度提出了一種多模態(tài)風(fēng)格遷移的方法,實(shí)現(xiàn)了靈活、通用風(fēng)格化過(guò)程,并充分利用并有效平衡了參數(shù)化和非參數(shù)化方法的優(yōu)勢(shì)。

具體來(lái)說(shuō),研究人員提出了多模態(tài)風(fēng)格表示方法來(lái)表示風(fēng)格圖的特征,并基于圖方法的匹配機(jī)制來(lái)實(shí)現(xiàn)風(fēng)格特征和內(nèi)容圖像的匹配。研究人員在對(duì)多種風(fēng)格圖像風(fēng)格分布分析的基礎(chǔ)上認(rèn)為多模態(tài)表示是更為有效的風(fēng)格表達(dá)方式,并利用表示不同特定特征的風(fēng)格集合來(lái)實(shí)現(xiàn)多模表示,可利用這些特征來(lái)實(shí)現(xiàn)會(huì)對(duì)不同特征的混合與匹配,得到豐富多彩的風(fēng)格化圖像。

為了實(shí)現(xiàn)風(fēng)格-內(nèi)容的匹配,研究人員提出了基于圖的能量最小化方法,并利用圖割的方式來(lái)求解。風(fēng)格表達(dá)通過(guò)內(nèi)容的空間特征來(lái)匹配。最后研究人員還利用了不同的子風(fēng)格數(shù)量探索了多模態(tài)表達(dá)的魯棒性和有效性,實(shí)驗(yàn)表明MST可有效改進(jìn)現(xiàn)有風(fēng)格化方法表現(xiàn)。

接下來(lái)讓我們一起來(lái)探索高效的多模態(tài)風(fēng)格表示,并研究如何為每一種內(nèi)容特征與風(fēng)格特征進(jìn)行匹配,最后將在對(duì)應(yīng)的特征子空間中實(shí)現(xiàn)風(fēng)格轉(zhuǎn)換。

多模態(tài)表示

基于卷積的圖像風(fēng)格遷移主要利用兩種方法來(lái)對(duì)特征進(jìn)行表示,一種假設(shè)全局具有相同分布并用全局特征來(lái)表風(fēng)格,另一種則基于圖像片提取風(fēng)格。當(dāng)風(fēng)格圖像具有多種特征時(shí)、單一均勻的方法無(wú)法較好的處理。在下圖中可以看到對(duì)于風(fēng)格特征的聚類,明顯具有多種不同的風(fēng)格模式。

而基于圖像片的方法來(lái)說(shuō),會(huì)造成多個(gè)相同模式的圖像片被copy到最終結(jié)果中造成不連續(xù)不美觀的局部畸變。為了處理這些問(wèn)題研究人員提出了利用多模態(tài)來(lái)表示風(fēng)格圖的特征,通過(guò)將風(fēng)格分為多個(gè)子集實(shí)現(xiàn)了高維空間中的模態(tài)聚類,在特征空間中通過(guò)K均值聚類來(lái)對(duì)特征點(diǎn)進(jìn)行分割:

特征Fs被分解成多個(gè)子特征,每個(gè)特征都有自己的特征標(biāo)簽lk。在特征空間中的鄰近點(diǎn)具有相同的視覺(jué)特征。通過(guò)這樣的方法就將先前均一模式的特征表達(dá)分解到了多個(gè)子空間中。

基于圖的風(fēng)格匹配

針對(duì)內(nèi)容圖,同樣需要抽取特征。隨后對(duì)內(nèi)容特征和風(fēng)格特征進(jìn)行距離測(cè)量,基于余弦距離計(jì)算出每一個(gè)風(fēng)格特征與內(nèi)容特征的距離,并最小化數(shù)據(jù)能量函數(shù)來(lái)匹配對(duì)應(yīng)的特征:

隨后還需要考慮內(nèi)容圖像的空間信息來(lái)保留內(nèi)容的連續(xù)性和邊緣的完整,并希望內(nèi)容圖像同一局域擁有相同的特征標(biāo)簽,所以還引入了內(nèi)容平滑項(xiàng):

最后將兩項(xiàng)能量函數(shù)聯(lián)合起來(lái)并最小化就能得到風(fēng)格與對(duì)應(yīng)內(nèi)容匹配的結(jié)果。研究人員提出了基于圖的方法來(lái)最小化,并最終實(shí)現(xiàn)了像素級(jí)的風(fēng)格匹配。

實(shí)驗(yàn)發(fā)現(xiàn),風(fēng)格特征的聚類將抽取出圖像中的語(yǔ)義信息。在獲得像素級(jí)的匹配圖后,就可以更具內(nèi)容的特征自適應(yīng)的匹配不同風(fēng)格來(lái)實(shí)現(xiàn)更為有效的圖像風(fēng)格化操作。下圖分別顯示了具有兩個(gè)/三個(gè)子風(fēng)格的風(fēng)格匹配圖像。

通過(guò)一系列的實(shí)驗(yàn)表明,這種方法在邊緣保留、特征自適應(yīng)匹配等方面具有十分優(yōu)異的表現(xiàn)。研究人員探索了不同風(fēng)格聚類數(shù)量對(duì)于風(fēng)格化的影響,可以看到越多的子風(fēng)格數(shù)對(duì)圖像的表達(dá)越完整,遷移后的圖像具有更好的視覺(jué)連續(xù)性:

在匹配圖中我們可以看到不同特征的分布區(qū)域,下圖中可以看到聚類數(shù)為3時(shí)不同特征對(duì)應(yīng)內(nèi)容圖和特征圖的區(qū)域模式。

這種利用多模態(tài)的風(fēng)格表示方法有效的將風(fēng)格圖中的不同特征進(jìn)行了更為豐富完整的表示,并利用特征匹配的方法為不同的內(nèi)容區(qū)域匹配不同的特征,自適應(yīng)的實(shí)現(xiàn)具有空間分布的風(fēng)格遷移。MST的思想可以有效拓展到現(xiàn)有的風(fēng)格遷移方法中,提高最終生成的風(fēng)格圖像的視覺(jué)效果。最后讓我們?cè)賮?lái)欣賞一些機(jī)器生產(chǎn)的美麗畫(huà)作吧!

MST方法得到的結(jié)果與其他方法的比較

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1094

    瀏覽量

    41089
  • 視覺(jué)
    +關(guān)注

    關(guān)注

    1

    文章

    157

    瀏覽量

    24308
  • K均值
    +關(guān)注

    關(guān)注

    0

    文章

    6

    瀏覽量

    6920

原文標(biāo)題:?多模態(tài)風(fēng)格遷移——生成更加美麗動(dòng)人的風(fēng)格圖像

文章出處:【微信號(hào):thejiangmen,微信公眾號(hào):將門(mén)創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 0人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    關(guān)于深度學(xué)習(xí)中的圖像處理應(yīng)用

    神經(jīng)風(fēng)格遷移(NST,Neural Style Transfe) 神經(jīng)風(fēng)格遷移是指將參考圖像風(fēng)格
    發(fā)表于 08-06 16:52 ?2108次閱讀

    教你如何用OpenCV、Python和深度學(xué)習(xí)技術(shù)對(duì)圖像和實(shí)時(shí)視頻進(jìn)行神經(jīng)風(fēng)格遷移

    雖然Gatys等人的方法能生成不錯(cuò)的神經(jīng)風(fēng)格遷移結(jié)果,但是它的速度非常慢。2016年,Johnson等人在Gatys的基礎(chǔ)上提出的全新算法速度快了三倍,但同時(shí)也存在著缺點(diǎn),即用戶不能隨機(jī)選擇想要應(yīng)用的
    的頭像 發(fā)表于 08-31 09:47 ?7810次閱讀

    Linux內(nèi)核編碼風(fēng)格(編程代碼風(fēng)格推薦)

    這是翻譯版本,英文原版是linux源碼Documentation文件夾下的CodingStyle一個(gè)良好風(fēng)格的程序看起來(lái)直觀、美觀,便于閱讀,還能有助于對(duì)程序的理解,特別在代碼量比較大情況下更顯
    發(fā)表于 08-24 09:45

    【洞幺邦】基于深度學(xué)習(xí)的GAN應(yīng)用風(fēng)格遷移

    和虛假,最后兩者到達(dá)動(dòng)態(tài)的平和的時(shí)候,生成網(wǎng)絡(luò)G就可以生成以假亂真的圖片了。GAN應(yīng)用風(fēng)格遷移:在最一開(kāi)始那個(gè)吶喊的例子中,人類騎行的圖像
    發(fā)表于 07-01 10:53

    遷移學(xué)習(xí)

    的領(lǐng)域適配。遷移效果的可視化,利用機(jī)器學(xué)習(xí)庫(kù)scikit-learn中的t-SNE對(duì)遷移過(guò)后的高維數(shù)據(jù)進(jìn)行可視化。十、實(shí)驗(yàn)實(shí)操之圖片與視頻風(fēng)格遷移實(shí)踐掌握基于
    發(fā)表于 04-21 15:15

    山東分公司的風(fēng)格山東分公司的風(fēng)格山東分公司的風(fēng)格山東分公司的風(fēng)格

    東分公司的風(fēng)格東分公司的風(fēng)格東分公司的風(fēng)格東分公司的風(fēng)格東分公司的風(fēng)格東分公司的風(fēng)格東分公司的
    的頭像 發(fā)表于 09-07 14:57 ?1411次閱讀

    用TensorFlow.js在瀏覽器中部署可進(jìn)行任意圖像風(fēng)格遷移的模型

    Reiichiro Nakano提供的模型突破了以往模型的局限,它能將任何風(fēng)格圖像分解為表示其風(fēng)格的100維向量,然后把這些向量結(jié)合照片信息一起饋送到另一個(gè)神經(jīng)網(wǎng)絡(luò),以產(chǎn)生最終的風(fēng)格
    的頭像 發(fā)表于 11-22 09:01 ?6688次閱讀

    新GAN技術(shù)應(yīng)用多層次特征的風(fēng)格遷移人臉生成器你了解嗎

    GAN 生成器架構(gòu)借鑒了風(fēng)格遷移研究,可對(duì)高級(jí)屬性(如姿勢(shì)、身份)進(jìn)行自動(dòng)學(xué)習(xí)和無(wú)監(jiān)督分割,且生成圖像還具備隨機(jī)變化(如雀斑、頭發(fā))。該架
    的頭像 發(fā)表于 12-23 11:03 ?7536次閱讀
    新GAN技術(shù)應(yīng)用多層次特征的<b class='flag-5'>風(fēng)格</b><b class='flag-5'>遷移</b>人臉<b class='flag-5'>生成</b>器你了解嗎

    風(fēng)格遷移中如何進(jìn)行數(shù)據(jù)增強(qiáng)

    這是一篇關(guān)于風(fēng)格遷移中如何進(jìn)行數(shù)據(jù)增強(qiáng)的論文。在introduction部分,informal--formal 的風(fēng)格遷移問(wèn)題,最大的障礙是訓(xùn)練數(shù)據(jù)的不足。為了解決此問(wèn)題,本篇論文提出
    的頭像 發(fā)表于 01-13 09:41 ?2781次閱讀

    一種具有語(yǔ)義區(qū)域風(fēng)格約束的圖像生成框架

    生成對(duì)抗網(wǎng)絡(luò)近年來(lái)發(fā)展迅速,其中語(yǔ)義區(qū)域分割與生成模型的結(jié)合為圖像生成技術(shù)研究提供了新方向。在當(dāng)前的研究中,語(yǔ)義信息作為指導(dǎo)生成的條件,可以
    發(fā)表于 04-13 15:47 ?5次下載
    一種具有語(yǔ)義區(qū)域<b class='flag-5'>風(fēng)格</b>約束的<b class='flag-5'>圖像</b><b class='flag-5'>生成</b>框架

    基于尺度筆刷的分層圖像優(yōu)化風(fēng)格化繪制算法

    基于圖像的油畫(huà)風(fēng)格化繪制是計(jì)算機(jī)圖形學(xué)領(lǐng)域非真實(shí)感繪制研究的熱點(diǎn)之一。為了進(jìn)一步提高圖像油畫(huà)風(fēng)格化的質(zhì)量,提出了一種基于尺度筆刷的分層
    發(fā)表于 06-07 11:23 ?5次下載

    PyTorch教程14.12之神經(jīng)風(fēng)格遷移

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程14.12之神經(jīng)風(fēng)格遷移.pdf》資料免費(fèi)下載
    發(fā)表于 06-05 11:21 ?0次下載
    PyTorch教程14.12之神經(jīng)<b class='flag-5'>風(fēng)格</b><b class='flag-5'>遷移</b>

    PyTorch教程-14.12. 神經(jīng)風(fēng)格遷移

    個(gè)方面。要為照片應(yīng)用理想的風(fēng)格,您可能需要嘗試多種不同的濾鏡組合。這個(gè)過(guò)程與調(diào)整模型的超參數(shù)一樣復(fù)雜。 在本節(jié)中,我們將利用 CNN 的分層表示將一幅圖像風(fēng)格自動(dòng)應(yīng)用到另一幅圖像,
    的頭像 發(fā)表于 06-05 15:44 ?919次閱讀
    PyTorch教程-14.12. 神經(jīng)<b class='flag-5'>風(fēng)格</b><b class='flag-5'>遷移</b>

    基于PyQT5與ONNXRUNTIME實(shí)現(xiàn)風(fēng)格遷移應(yīng)用

    2023年一月份跟二月份創(chuàng)建了一個(gè)PyQT5人工智能軟件開(kāi)發(fā)系列的文章系列,過(guò)去的兩個(gè)月都沒(méi)怎么更新,心里一直想有時(shí)間繼續(xù)更新下去,今天又更新了一篇,基于PyQT5實(shí)現(xiàn)多線程、界面化、風(fēng)格遷移模型的實(shí)時(shí)推理。
    的頭像 發(fā)表于 10-25 10:35 ?681次閱讀
    基于PyQT5與ONNXRUNTIME實(shí)現(xiàn)<b class='flag-5'>風(fēng)格</b><b class='flag-5'>遷移</b>應(yīng)用

    基于OpenCV的DNN圖像風(fēng)格遷移

    圖像風(fēng)格遷移已經(jīng)屬于比較成熟的領(lǐng)域了,現(xiàn)在連實(shí)時(shí)的風(fēng)格遷移都不成問(wèn)題。之前一直想出一篇這樣的文章,但無(wú)奈于大部分開(kāi)源項(xiàng)目配置起來(lái)非常麻煩,比
    的頭像 發(fā)表于 10-30 10:03 ?958次閱讀

    電子發(fā)燒友

    中國(guó)電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會(huì)員交流學(xué)習(xí)
    • 獲取您個(gè)性化的科技前沿技術(shù)信息
    • 參加活動(dòng)獲取豐厚的禮品