0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種基于對抗訓練的圖像翻譯技術(shù),為裸女們自動“穿”上比基尼

電子工程師 ? 來源:未知 ? 作者:李倩 ? 2018-07-23 09:11 ? 次閱讀

互聯(lián)網(wǎng)的內(nèi)容繁雜,一不小心就會看到一些“辣眼睛”的內(nèi)容,比如裸女,這也是為什么我們需要審核人員的存在。當然,受益于 AI 技術(shù)的發(fā)展,現(xiàn)在很多審核工作已經(jīng)自動化了。不過,僅僅識別出來還不夠,要是能為她們穿上衣服就更好了。

南大河州天主教大學(Pontifícia Universidade Católica do Rio Grande do Sul)是巴西南大河州的一所天主教私立大學,這里的研究人員為了不讓那些裸露的圖片污染大眾的眼睛煞費苦心,特意開發(fā)了一種技術(shù),為裸女們自動“穿”上比基尼。當然,這也是為了她們好,畢竟裸照在網(wǎng)上流傳并不是一件好事。

下面,我們就為大家簡單介紹下這項工作。

▌摘要

我們可以將裸體和色情信息的審查工作視為二分類任務,分類的結(jié)果用于決定是否能夠完全忽略所訪問的內(nèi)容。這樣的方法可能會損害用戶的體驗,因為無論是圖像還是視頻,最終都必須被移除或者阻斷。在本文中,我們提出了一種范式轉(zhuǎn)換來過濾掉圖像中的一些敏感區(qū)域,而不是檢測并移除識別的內(nèi)容,并將其用于成人審查任務。為此,我們基于對抗訓練的方法開發(fā)了一種圖像翻譯技術(shù),它能夠隱式地定位出圖像中的敏感區(qū)域,并在保留語義信息的同時覆蓋該區(qū)域。我們在裸體女性圖像上測試這種新穎的方法,我們的方法能夠為裸體自動進行生成比基尼并覆蓋敏感部位,而不需要額外標注身體部位的工作。

▌方法

我們將敏感內(nèi)容區(qū)域 X 的圖像 x (包含女性裸體圖像) 翻譯到非敏感內(nèi)容域 Y 的圖像 y (包含比基尼女性的圖像),這個過程我們在保留敏感區(qū)域語義信息的同時,用比基尼覆蓋了圖像中的敏感區(qū)域。此任務所需的數(shù)據(jù)很容易獲得,分別來自圖像 X 和 Y 域,且不需要特殊數(shù)據(jù)標注。我們使用的兩個域數(shù)據(jù)是從網(wǎng)上爬取的,包括裸體女性和穿比基尼女性的照片。我們對結(jié)果進行過濾,僅保留單個人出現(xiàn)的圖像并將該數(shù)據(jù)集進一步分為訓練和測試集。對于穿比基尼女性 (X),最終有 1044 張訓練圖像和 117 張測試圖像;而對于裸體女性 (Y),最終有 921 張訓練圖像和 103 張測試圖像。

我們提出的方法在圖像轉(zhuǎn)換過程無需數(shù)據(jù)配對,其模型結(jié)構(gòu)如下圖 1 所示。該模型的關(guān)鍵思想在于利用對抗性訓練的方式來學習域之間的現(xiàn)實映射。具體來說,框架由兩個映射生成器組成,G:X → Y 和 F:Y → X 和兩個判別器 DX和DY 構(gòu)成。其中 DX 用于區(qū)分真實圖像 {x} 和翻譯圖像 {F (y)} = {^x},而 DY 用于區(qū)分真實圖像 {y} 和翻譯的圖像 {G(x)} = {^y}。我們采用了 LSGANs 中的損失函數(shù),它能夠更穩(wěn)定的訓練以產(chǎn)生不錯的結(jié)果表現(xiàn)。為了很好地衡量跨領(lǐng)域圖像的相似度,我們還探索了 cycle-consistent 的性質(zhì)并用于衡量圖像翻譯結(jié)果的質(zhì)量。

我們的判別器采用標準的多層次卷積濾波結(jié)構(gòu)。除了第一層和最后一層外,我們采用 Leaky ReLU 作為每層卷積的激活函數(shù)并進行實例正則化 (instance normalization, IN)。

對于生成器,我們測試了兩種流行的結(jié)構(gòu)。首先我們測試了 9-Blocks ResNet 結(jié)構(gòu)的生成器,這種結(jié)構(gòu)由帶殘余連接的自編碼器構(gòu)成,我們在每層的卷積后采用 ReLU 激活函數(shù)和 IN 正則化。此外,我們還采用了 U-Net 256 結(jié)構(gòu)的生成器。U-Net 由一個帶殘余連接的自動編碼器構(gòu)成,它能夠在相同的空間維度上進行殘余操作。同樣地,我們也采用 IN 正則化,并對編碼器采用 Leaky ReLU 激活函數(shù),而解碼器采用 ReLU 激活函數(shù)。

▌實驗結(jié)果

我們模型的訓練分辨率為 256×256 像素。生成器和判別器都同時采用梯度下降法進行訓練,每個訓練步驟分別更新 DY,DX,以及 G 和 F 的權(quán)重。我們使用 Adam 優(yōu)化器,學習率為0.0002,β1 = 0.5,β2 = 0.99,并將 cycle consistent 項的權(quán)重值設為10。我們的網(wǎng)絡以批次 1 重復訓練 400 步,學習率隨著訓練的進行而線性衰減。此外,每 100 秒我們將翻譯的圖像進行可視化以查看實驗結(jié)果。

原始數(shù)據(jù)集的結(jié)果

下圖 2 展示了我們的方法在原始數(shù)據(jù)集中的結(jié)果。可以看到,與 U-Net 方法 (第三排) 相比,采用 ResNet 作為生成器結(jié)構(gòu) (第二排) 時始終能夠產(chǎn)生更好的結(jié)果。

圖2:在原始數(shù)據(jù)集上的訓練結(jié)果。頂行:真實圖像 (手動刪除以保護讀者)。中間行:使用 9-Blocks esNet 結(jié)構(gòu)的生成器結(jié)果。底行:使用 U-Net 256 結(jié)構(gòu)的生成器結(jié)果 (產(chǎn)生模糊、令人不滿意的結(jié)果)。

移除背景后的結(jié)果

下圖3顯示了我們的方法在無背景數(shù)據(jù)集上的結(jié)果??梢钥吹?,這些結(jié)果比圖2原始數(shù)據(jù)集中的結(jié)果更加一致?;?ResNet 結(jié)構(gòu)的模型表現(xiàn)更優(yōu)于 U-Net 結(jié)構(gòu),它能夠通過生成敏感性的圖像組件來正確覆蓋真實的比基尼區(qū)域。 此外,ResNet 結(jié)構(gòu)模型生成的圖像失真度更低。

圖3:在無背景數(shù)據(jù)集上的結(jié)果。頂行:真實圖像 (手動刪除以保護讀者)。間行:使用9-Blocks esNet 結(jié)構(gòu)的生成器結(jié)果。底行:使用 U-Net 256 結(jié)構(gòu)的生成器結(jié)果 (產(chǎn)生模糊、令人不滿意的結(jié)果)。

▌魯棒性結(jié)果分析

圖5:魯棒性分析。左:真實圖像;右:由生成器 F 創(chuàng)建的最小修改圖。

▌結(jié)論

本文我們提出了一種基于對抗訓練的圖像翻譯技術(shù),用于隱式地定位裸體圖像中的敏感區(qū)域并在保留其語義信息的同時覆蓋該區(qū)域。我們的方法不需要訓練樣本的配對工作,在實驗驗證過程中產(chǎn)生令人印象深刻而又高度逼真的結(jié)果,為解決裸體圖像審查任務提供了一種新方法。對于未來的工作,我們打算分析影響生成圖像質(zhì)量的不同模型架構(gòu)和損失函數(shù),并將我們的方法嵌入到瀏覽器應用程序中以保護公眾,避免看到那些不受歡迎的內(nèi)容。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3643

    瀏覽量

    134531
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1084

    瀏覽量

    40470
  • ai技術(shù)
    +關(guān)注

    關(guān)注

    1

    文章

    1275

    瀏覽量

    24328

原文標題:用AI給裸女自動“穿”上比基尼,媽媽再也不擔心我“辣眼睛”了

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    一種改進的矩不變自動閾值算法

    摘要:提出了一種改進的矩不變自動閾值算法。該算法針對矩不變自動閾值法忽略圖像細節(jié)的缺點,在矩不變自動閾值的基礎
    發(fā)表于 08-24 16:22

    分享一種CameraCube新型圖像傳感技術(shù)

    分享一種CameraCube新型圖像傳感技術(shù)
    發(fā)表于 06-08 09:29

    一種基于機器學習的建筑物分割掩模自動正則化和多邊形化方法

    摘要我們提出了一種基于機器學習的建筑物分割掩模自動正則化和多邊形化方法。以圖像輸入,首先使用通用完全卷積網(wǎng)絡( FCN )預測建筑物分割圖,然后使用生成
    發(fā)表于 09-01 07:19

    簡述電子對抗綜合模擬訓練平臺

    電子對抗綜合模擬訓練平臺以電子戰(zhàn)部隊指揮機構(gòu)為主要訓練對象,開展集電子對抗、指揮干預、戰(zhàn)術(shù)使用、仿真推演、訓練監(jiān)控與評估等功能的綜合電子
    發(fā)表于 09-01 10:50

    探索一種降低ViT模型訓練成本的方法

    (1 GPU)和時間(24小時)資源下從頭開始訓練ViT模型。首先,提出了一種向ViT架構(gòu)添加局部性的有效方法。其次,開發(fā)了一種新的圖像大小課程學習策略,該策略允許在
    發(fā)表于 11-24 14:56

    Python和Keras在訓練期間如何將高斯噪聲添加到輸入數(shù)據(jù)中呢?

    會得到添加了高斯噪聲的新圖像。高斯噪聲也稱為白噪聲,是一種服從正態(tài)分布的隨機噪聲。 在深度學習中,訓練時往往會在輸入數(shù)據(jù)中加入高斯噪聲,以提高模型的魯棒性和泛化能力。 這稱為數(shù)據(jù)擴充。 通過向輸入數(shù)據(jù)添加
    發(fā)表于 02-16 14:04

    網(wǎng)絡對抗訓練模擬系統(tǒng)的設計與實現(xiàn)

    提高計算機網(wǎng)絡對抗能力,是奪取信息優(yōu)勢和控制網(wǎng)絡權(quán)的必要手段和途徑;網(wǎng)絡對抗訓練模擬系統(tǒng)的建立有利于網(wǎng)絡對抗人才的培養(yǎng)。研究和設計了一種網(wǎng)絡
    發(fā)表于 12-16 01:12 ?20次下載

    讓AI裸照“穿上”比基尼泳裝

    穿著比基尼泳的女性的照片被被輸入系統(tǒng),教它比基尼是什么樣子的。為了找出應該穿上比基尼的地方,系統(tǒng)也學習了大量的裸體照片。有了這些照片數(shù)據(jù)集后,這個系統(tǒng)實質(zhì)上相當于
    的頭像 發(fā)表于 07-22 08:45 ?1.9w次閱讀

    關(guān)于語言模型和對抗訓練的工作

    本文把對抗訓練用到了預訓練和微調(diào)兩個階段,對抗訓練的方法是針對embedding space,通過最大化
    的頭像 發(fā)表于 11-02 15:26 ?2096次閱讀
    關(guān)于語言模型和<b class='flag-5'>對抗</b><b class='flag-5'>訓練</b>的工作

    NLP中的對抗訓練到底是什么

    簡介 對抗訓練一種引入噪聲的訓練方式,可以對參數(shù)進行正則化,提升模型魯棒性和泛化能力。 對抗訓練
    的頭像 發(fā)表于 01-18 17:17 ?3558次閱讀

    一種基于改進的DCGAN生成SAR圖像的方法

    針對SAR圖像識別軟件,通過改進 DCGAN模型單生成器與單判別器對抗的結(jié)構(gòu),采用多生成器與單判別器進行對抗,設計了控制各生成器生成圖像平均質(zhì)量的算法,提出了
    發(fā)表于 04-23 11:01 ?21次下載
    <b class='flag-5'>一種</b>基于改進的DCGAN生成SAR<b class='flag-5'>圖像</b>的方法

    基于密集卷積生成對抗網(wǎng)絡的圖像修復方法

    差等問題。針對上述問題,文中提出了一種基于密集卷積生成對抗網(wǎng)絡的圖像修復算法。該算法采用生成對抗網(wǎng)絡作為圖像修復的基本框架。首先,利用密集卷
    發(fā)表于 05-13 14:39 ?15次下載

    一種基于生成對抗網(wǎng)絡的無人機圖像去霧算法

    和判別網(wǎng)絡,生成網(wǎng)絡由多層編碼器和解碼器對稱分布構(gòu)成,判別網(wǎng)絡由全卷積網(wǎng)絡構(gòu)成,為了提高生成圖像的清晰度,引入了一種新的對抗和平滑損失函數(shù)來優(yōu)化整個網(wǎng)絡。最后,通過大量實驗表明,基于本文方法進行
    發(fā)表于 03-10 10:30 ?1694次閱讀

    一種基于生成對抗網(wǎng)絡的無人機圖像去霧算法

    和判別網(wǎng)絡,生成網(wǎng)絡由多層編碼器和解碼器對稱分布構(gòu)成,判別網(wǎng)絡由全卷積網(wǎng)絡構(gòu)成,為了提高生成圖像的清晰度,引入了一種新的對抗和平滑損失函數(shù)來優(yōu)化整個網(wǎng)絡。最后,通過大量實驗表明,基于本文方法進行
    發(fā)表于 03-20 12:24 ?833次閱讀

    如何使用Python進行圖像識別的自動學習自動訓練

    如何使用Python進行圖像識別的自動學習自動訓練? 使用Python進行圖像識別的自動學習和
    的頭像 發(fā)表于 01-12 16:06 ?593次閱讀