人們常說“夏蟲不可語冰”。如果將這句話視為機(jī)器學(xué)習(xí)任務(wù),可以這樣理解:夏天生死的蟲子只見過液態(tài)的水,但從未見過冰。故而你即便拿給它一張冰的照片,它也認(rèn)不出來這是另一種形態(tài)的水。而本文要解決的,就是通過遷移學(xué)習(xí),讓夏天的蟲子也能認(rèn)出“冰實(shí)際就是水?!?/p>
摘要
身份認(rèn)證旨在確認(rèn)樣本和人的身份之間的從屬關(guān)系。典型的身份認(rèn)證包含人臉識別(face recognition)、行人重識別(personre-identification),基于移動設(shè)備的身份驗(yàn)證。
近年來數(shù)據(jù)驅(qū)動的身份認(rèn)證過程可能是有偏的,即,模型經(jīng)常只在一個領(lǐng)域里訓(xùn)練(例如對于穿著春裝的人),而可能需要在另一個領(lǐng)域里測試(例如這些人換上了夏裝)。
為了解決這個問題,我們提出了一個新穎的兩階段的方法來從領(lǐng)域差異里解耦出類別/身份的特征表示,且我們考慮多種類型的領(lǐng)域差異。在第一階段中,我們采用一個一對多的解耦學(xué)習(xí)(one-versus-rest disentangle learning , OVRDL)機(jī)制來學(xué)習(xí)解耦的特征表示。
在第二階段中,我們提出一個加性對抗學(xué)習(xí)(additive adversarial learning, AAL)機(jī)制來進(jìn)一步提升解耦性能。并且我們討論了如何避免由于解耦有因果關(guān)系的領(lǐng)域差異而陷入學(xué)習(xí)困境。實(shí)驗(yàn)結(jié)果充分證明了我們方法的有效性和優(yōu)越性。
相關(guān)代碼即將公布,請關(guān)注:https://github.com/langlrsw/AAL-unbiased-authentication。
研究目的:數(shù)據(jù)驅(qū)動的身份驗(yàn)證中的數(shù)據(jù)偏差問題
身份認(rèn)證考慮學(xué)習(xí)與驗(yàn)證數(shù)據(jù)樣本與人的身份之間的匹配關(guān)系。近年來,身份驗(yàn)證技術(shù)取得了巨大進(jìn)展,包括指紋驗(yàn)證、人臉驗(yàn)證、聲紋/虹膜驗(yàn)證、行人重識別等。然而,數(shù)據(jù)驅(qū)動的身份認(rèn)證過程經(jīng)常會面臨數(shù)據(jù)中的偏差,例如領(lǐng)域差異,即一個模型在一個領(lǐng)域中訓(xùn)練卻在另一個領(lǐng)域中進(jìn)行驗(yàn)證。例如在行人重識別領(lǐng)域中,當(dāng)季節(jié)導(dǎo)致人們穿衣變化時或者人與攝像機(jī)的相對角度發(fā)生變化時,驗(yàn)證都可能受到影響。
特別地,隨著智能終端的不斷普及,基于智能終端的身份驗(yàn)證技術(shù)也飛速發(fā)展。而上述情況在基于智能終端的身份驗(yàn)證上也會發(fā)生。比如,某個具體用戶(由一個虛擬賬號關(guān)聯(lián))的設(shè)備類型(由硬件特性或軟件編碼決定)可能會每一年變化一次,但是用來訓(xùn)練身份驗(yàn)證模型的數(shù)據(jù)可能每月采集一次。那么當(dāng)用戶對應(yīng)的設(shè)備類型改變時,如果我們依然用舊的設(shè)備類型上訓(xùn)練的模型來進(jìn)行身份認(rèn)證,就可能輸出錯誤的認(rèn)證結(jié)果。
面臨上述的訓(xùn)練和測試數(shù)據(jù)之間的領(lǐng)域差異的問題,簡單地應(yīng)用數(shù)據(jù)驅(qū)動的模型可能導(dǎo)致模型聚焦于每個領(lǐng)域的偏差,即便訓(xùn)練數(shù)據(jù)是充足的。為了避免該問題,本文研究了無偏身份驗(yàn)證的學(xué)習(xí)任務(wù)。
簡單起見,我們把身份認(rèn)證視為一個識別問題,即每個身份對應(yīng)于一個類。我們考慮多種類型的領(lǐng)域差異,每種領(lǐng)域差異有多種領(lǐng)域。例如,對于行人重識別而言,季節(jié)和拍攝角度是兩種類型的領(lǐng)域差異,其中季節(jié)包括四種不同的領(lǐng)域:春、夏、秋、冬,而拍攝角度包含的領(lǐng)域可以有:正面、側(cè)面、背面等。
表1 問題假設(shè)的范例
為了更好地理解我們的問題,我們展示了一個簡單的例子,其中只有一種類型的領(lǐng)域差異,見表 1。在訓(xùn)練階段,對于每個類別組,我們只有它們一個領(lǐng)域上的數(shù)據(jù)。換言之,不同的領(lǐng)域不會共享類別。在測試階段,我們需要識別的數(shù)據(jù)對應(yīng)于訓(xùn)練階段沒有見過的<類別,領(lǐng)域>的組合。
在數(shù)學(xué)上,該問題與領(lǐng)域自適應(yīng)相關(guān),但是二者也有顯著區(qū)別:
其一,領(lǐng)域自適應(yīng)允許源域和目標(biāo)域共享類別;其二,領(lǐng)域自適應(yīng)不提供目標(biāo)域的標(biāo)簽。領(lǐng)域自適應(yīng)在遷移學(xué)習(xí)領(lǐng)域中已經(jīng)被廣泛研究。而我們的問題可以被轉(zhuǎn)化為一個領(lǐng)域自適應(yīng)問題,如果測試領(lǐng)域的數(shù)據(jù)允許用于訓(xùn)練,且不提供對應(yīng)的標(biāo)簽的話。因此,我們把該問題稱之為一個廣義的跨領(lǐng)域識別(generalized cross-domain recognition, GCDR)問題。類似的問題在面向公平的機(jī)器學(xué)習(xí)(fairness-oriented machine learning, FML)領(lǐng)域中被研究過。該領(lǐng)域考慮的偏差主要來自于人口統(tǒng)計(jì)學(xué)群體的差別,例如膚色、性別等。在這種設(shè)定下,F(xiàn)ML方法通常也是應(yīng)用遷移學(xué)習(xí)方法來進(jìn)行解決。
在本文中,我們同樣考慮應(yīng)用遷移學(xué)習(xí)方法來學(xué)習(xí)無偏的表示。具體地,我們假設(shè)領(lǐng)域的差別對于數(shù)據(jù)的影響是未知的,且我們考慮應(yīng)用對稱、同質(zhì)的遷移學(xué)習(xí)方法,即,對所有域?qū)W出一個共同的特征空間,且假設(shè)所有域的原始特征空間都相同或者至少維數(shù)相同。
圖 1 解耦學(xué)習(xí)方法詳細(xì)網(wǎng)絡(luò)架構(gòu)圖
在本文中,我們提出了一個新穎的識別方法來學(xué)習(xí)解耦的特征表示,用于解決領(lǐng)域差異,最終實(shí)現(xiàn)無偏的識別。如表1中所示,對于一個具體的類別組,類別是不同的,但是領(lǐng)域是相同的。所以,學(xué)習(xí)一個無偏的模型來進(jìn)行類別識別是可能的。對于一個數(shù)據(jù)樣本,其類別標(biāo)簽和領(lǐng)域標(biāo)簽都被視為其屬性。我們的模型就是通過解耦這些屬性來學(xué)習(xí)無偏的表示。我們方法的詳細(xì)架構(gòu)見圖 1,其包含兩個階段。
在第一個階段中,我們提出一對多的解耦學(xué)習(xí)(one-versus-restdisentangle learning , OVRDL)機(jī)制來將每個樣本映射到多個隱層空間。在每個隱層空間里,我們將一個屬性與其他屬性解耦。在第二階段中,由于訓(xùn)練數(shù)據(jù)中僅見過有限的屬性值的組合,我們采用了一種數(shù)據(jù)增廣的方法來隨機(jī)組合屬性標(biāo)簽,以及拼接其對應(yīng)的隱層特征向量來作為一個新的數(shù)據(jù)樣本。
基于隨機(jī)拼接的特征,我們提出一個加性對抗學(xué)習(xí)(additive adversarial learning, AAL)機(jī)制來進(jìn)一步提升階段1的解耦性能。
簡單來講,我們通過最小化負(fù)面的副作用來消除偏差。我們將討論擴(kuò)展到如何避免由于解耦有因果關(guān)系的屬性而陷入學(xué)習(xí)困境。在基準(zhǔn)數(shù)據(jù)集和真實(shí)數(shù)據(jù)集上的實(shí)驗(yàn)證明了我們方法的有效性和優(yōu)越性。我們同時進(jìn)行了消融實(shí)驗(yàn)來展示我們框架的每一種成分的貢獻(xiàn)。
接下來,我們將具體介紹本文提出的方法的每一個具體技術(shù)和思路。
第一步: 更直接地解耦:揚(yáng)湯止沸,不如釜底抽薪。
通過多任務(wù)學(xué)習(xí),可以將多屬性解耦學(xué)習(xí)的框架簡單地以圖 2的形式來構(gòu)建。其中不同任務(wù)對應(yīng)的特征變換網(wǎng)絡(luò)的輸出特征是假設(shè)相互獨(dú)立的。
圖 2:“假設(shè)獨(dú)立”的學(xué)習(xí)框架。G網(wǎng)絡(luò)均為特征變換網(wǎng)絡(luò)。身份識別、是否有胡子、是否戴眼鏡為三個屬性,分別建模為三個任務(wù)進(jìn)行學(xué)習(xí)。不同G網(wǎng)絡(luò)輸出的特征假設(shè)相互獨(dú)立。
但是這種假設(shè)只是假設(shè),三個網(wǎng)絡(luò)輸出的特征的獨(dú)立性是無法保證的。
本文中我們提出通過對抗學(xué)習(xí)來進(jìn)行直接解耦,直接逼近“獨(dú)立”的假設(shè)目標(biāo)。如圖 3所示。
假設(shè)屬性數(shù)量圖中,D網(wǎng)絡(luò)分為兩類:對于
(1)所有的是用于學(xué)習(xí)第i個屬性的特征,所有的
(2)所有的Dii的學(xué)習(xí)是用標(biāo)準(zhǔn)的監(jiān)督學(xué)習(xí),
對于,一個簡單的對抗學(xué)習(xí)流程可以視為如下兩個交替進(jìn)行的步驟:
步驟1:固定所有,優(yōu)化來使得輸出逼近與之對應(yīng)的獨(dú)熱編碼的標(biāo)簽;
步驟2:固定所有
該對抗學(xué)習(xí)的最終目標(biāo)是使得所有可以提取與之對應(yīng)的第i個屬性的特征,而不能提取與之對應(yīng)的其他屬性的特征。如此,第i個屬性就可以和其他屬性解耦。
圖 3 “直接解耦實(shí)現(xiàn)獨(dú)立”的學(xué)習(xí)框架。其中綠色的D網(wǎng)絡(luò)通過對抗學(xué)習(xí)實(shí)現(xiàn)與藍(lán)色D網(wǎng)絡(luò)目標(biāo)的解耦,最終實(shí)現(xiàn)多個任務(wù)的相互獨(dú)立。
這一步驟中,我們的思路簡單可以概括為:假設(shè)獨(dú)立,不如直接解耦令之獨(dú)立。正如:揚(yáng)湯止沸,不如釜底抽薪。
第二步:數(shù)據(jù)增廣。張冠李戴,屬性隨機(jī)組合。
由于訓(xùn)練集中不同屬性的組合類型比較有限,我們將不同屬性對應(yīng)的隱層特征隨機(jī)組合。該機(jī)制模仿了人類通過想象未見過的屬性組合來進(jìn)行解耦學(xué)習(xí)的行為。
如圖4所示,假設(shè)我們只見過棕色的馬和白色的兔子,那么我們隨機(jī)組合馬和白色,組合出白色的馬,模仿人想象沒見過的白色的馬。
圖 4 屬性隨機(jī)組合示例
不過,這一步驟本身并不進(jìn)行解耦學(xué)習(xí),只是為之后我們提出的加性對抗解耦學(xué)習(xí)做準(zhǔn)備。其他遷移學(xué)習(xí)方法也有隨機(jī)生成,不過是在數(shù)據(jù)原空間生成,可能會引入新的誤差。而我們的方法相當(dāng)于在隱層空間生成新樣本,引入的誤差較少。
第三步,深入解耦,加性對抗學(xué)習(xí)。
知白馬是馬而更識白,知白馬是白而更識馬。
這一步驟的思路是這樣的:當(dāng)認(rèn)識到白馬也是馬,就會知道“白”這個概念中并沒有“不是馬”的概念,從而能更好地認(rèn)知“白”這個概念。反過來說,當(dāng)認(rèn)識到白馬也是白色的,就會知道“馬”這個概念中,并沒有“不是白色”的概念,從而能更好地認(rèn)知“馬”這個概念。
圖 5 加性對抗網(wǎng)絡(luò)的優(yōu)化機(jī)制。紅色的曲線箭頭表示loss進(jìn)行BP回傳的方向。對于左右兩張圖,最左邊的3個隱層特性向量都是由上一步的隨機(jī)組合得到的。
加性對抗網(wǎng)絡(luò)的優(yōu)化機(jī)制如圖 5所示。假設(shè)前兩個屬性分別為:物體類別和顏色類別。加性對抗網(wǎng)絡(luò)的前兩條支路依次對應(yīng)于這兩個屬性的學(xué)習(xí)。這里的第一路作為輸入的隱層向量是代表物體類別的特征向量,第二路作為輸入的隱層向量是代表顏色類別的特征向量。
首先,假設(shè)對于見過的屬性組合已經(jīng)學(xué)好了,例如,一匹棕色的馬可以被精確地識別為物體“馬”和顏色“棕”。之后,對于沒見過的屬性組合,一匹棕色的馬和一只白色的兔子,我們要讓網(wǎng)絡(luò)輸出物體“馬”和顏色“白”。
在假設(shè)見過的組合已經(jīng)學(xué)好的前提下,如果現(xiàn)在輸出的顏色不是“白”,那么我們有理由相信,誤差是來自于網(wǎng)絡(luò)第一條支路中的“棕色”的信息。那么我們將第二支路輸出產(chǎn)生的顏色誤差回傳至第一條支路來消除其中的顏色信息。這樣一來,在第一支路中的顏色信息產(chǎn)生的域差異就被消除了。同理,第二路中的物體信息產(chǎn)生的域差異也可以類似地被消除。
這種加性對抗網(wǎng)絡(luò)有很好的性質(zhì):可以使得經(jīng)過T網(wǎng)絡(luò)學(xué)習(xí)的s向量空間是加性空間,且對于多個特征向量,每一維的含義都相同。最終導(dǎo)致s向量空間中,所有維度的特征被劃分為若干組,每一組對應(yīng)于一個屬性。這樣一來就有很好的可解釋性。同時可以進(jìn)一步利用稀疏方法進(jìn)行優(yōu)化。
這一步驟的idea可以概括為:通過組合概念的加性混合交叉學(xué)習(xí)而消除概念之間的耦合關(guān)系。知白馬是馬而更識白,知白馬是白而更識馬。
第四步:拓展討論。避免因果關(guān)系造成的學(xué)習(xí)困境:皮之不存,毛將焉附。
之前的解耦方式是對每一個屬性,都選擇所有其他屬性進(jìn)行解耦,但這樣可能會將本來有關(guān)系的兩個屬性強(qiáng)制解耦,偏離真實(shí)情況。最極端的例子是,如果兩個屬性本身完全相同,那么在同一個特征空間里,不可能一個屬性可以識別而另一個無法識別。
故而,直觀上講,我們不應(yīng)該將相關(guān)的屬性解耦。但是,“相關(guān)”是一個非常寬泛、不精確的概念。如果但凡有兩個屬性有關(guān)系,我們就放棄對它們解耦,又可能會導(dǎo)致解耦不充分,每種屬性還是學(xué)不好。
所以,我們考慮一種特殊的相關(guān)關(guān)系:因果關(guān)系。我們在定理2中證明,對于任意的屬性A,如果另一個屬性B是A的因,那么學(xué)習(xí)識別A的特征且讓該特征無法識別B會有損于對A的識別。這是因?yàn)槿绻撎卣髋cB獨(dú)立,那么由于屬性B是A的因,該特征與A的相關(guān)也就很有限了。
如圖6所示,以階段1的學(xué)習(xí)為例。
在圖像上,由于劉海會遮擋眼鏡,故而“是否有劉海”會影響“是否有眼鏡”的判斷;但是反過來,“是否有眼鏡”不會影響“是否有劉?!钡呐袛唷9识绻鸊3輸出的特征無法區(qū)分是否有劉海,那么區(qū)分是否有眼鏡也很難保證,故而我們學(xué)習(xí)“是否戴眼鏡”的時候放棄了對于“是否有劉?!钡慕怦顚W(xué)習(xí)。綜上,如果有關(guān)于屬性間因果關(guān)系的先驗(yàn)信息的話,我們應(yīng)該停止某些解耦過程來避免上述的學(xué)習(xí)困境。
這一步驟中,我們的思路可以簡單概括為:因不可解耦。因?yàn)椋虿豢杀鎰t果亦難辨,正如:皮之不存,毛將焉附。
圖 6 基于因果關(guān)系有選擇地解耦學(xué)習(xí)示例
實(shí)驗(yàn)方法
階段1 對抗學(xué)習(xí)的優(yōu)化問題如下:
首先是屬性學(xué)習(xí)的優(yōu)化問題:
其中是屬性學(xué)習(xí)的損失函數(shù),是第j個屬性的權(quán)重,是屬性標(biāo)簽的one-hot向量。
其次是域差異的判別學(xué)習(xí):
其中是對抗學(xué)習(xí)的損失函數(shù),?是(j, j’)屬性對的權(quán)重。
第三步是消除域差異:
其中
在第三步中,我們也會同時強(qiáng)化屬性學(xué)習(xí):
判別網(wǎng)絡(luò)的最后一層的激活函數(shù)是softmax,是交叉熵?fù)p失,是平均平方誤差損失。上述4個優(yōu)化問題循環(huán)依次進(jìn)行。其中,每個循環(huán)中,前兩個優(yōu)化問題優(yōu)化1步,后兩個優(yōu)化問題優(yōu)化5步。
在階段2中,對于每個,我們隨機(jī)采樣訓(xùn)練樣本,然后取其第j個屬性向量。采樣得到的第i個樣本的第j個屬性的屬性向量表示為,其中。則對于每個我們將組合為一個新的隱層樣本。對于每個屬性,每個類別值的采樣概率是相同的。我們采用了ABS-Net中剔除低預(yù)測概率對應(yīng)的樣本。
定義如下兩個下標(biāo)集合:
如圖1所示,在階段2中,隨機(jī)組合的屬性向量被m個加性空間轉(zhuǎn)換網(wǎng)絡(luò)
對于訓(xùn)練中見過的屬性組合的樣本,損失回傳至每個屬性自己對應(yīng)的網(wǎng)絡(luò),不傳至其他屬性對應(yīng)的網(wǎng)絡(luò)。即對于每個
對于訓(xùn)練中沒見過的屬性組合的樣本,損失回傳至其他屬性對應(yīng)的網(wǎng)絡(luò),不傳至自己屬性對應(yīng)的網(wǎng)絡(luò)。即對于每個,我們優(yōu)化如下的優(yōu)化問題:
所有識別網(wǎng)絡(luò)(R網(wǎng)絡(luò))的最后一層激活函數(shù)也是softmax函數(shù)。是交叉熵?fù)p失函數(shù)。
根據(jù)我們對于有因果關(guān)系的屬性的討論,我們采用一個元素值為{0,1}的矩陣,否則即令。對于階段1,我們可以將乘在上,對于階段2,我們可以刪掉中以j為因的屬性。
實(shí)驗(yàn)結(jié)果:多個數(shù)據(jù)集上性能優(yōu)于對比方法
數(shù)據(jù)集方面,我們分別基于C-MNIST的數(shù)字識別數(shù)據(jù)集、CelebA的身份識別數(shù)據(jù)集、手機(jī)傳感器數(shù)據(jù)的身份識別數(shù)據(jù)集構(gòu)造了我們關(guān)注的身份類別由于領(lǐng)域差異而分組的數(shù)據(jù)集。我們主要參考aAUC、(aFAR+aFRR)/2、ACC@1作為衡量指標(biāo)。
在C-MNIST數(shù)據(jù)集上,我們比較了多種遷移學(xué)習(xí)方法的性能。其中除了SE-GZSL方法,我們的方法達(dá)到了最優(yōu)性能。而SE-GZSL在后面兩個真實(shí)數(shù)據(jù)集上表現(xiàn)不佳。
表2 C-MNIST數(shù)據(jù)集上的性能對比
在CelebA數(shù)據(jù)集、移動手機(jī)數(shù)據(jù)集上,我們的aAUC和(aFAR+aFRR)/2指標(biāo)都顯著優(yōu)于對比方法。
表3 CelebA數(shù)據(jù)集上性能對比
表4 移動手機(jī)數(shù)據(jù)集上的性能對比
表 5消融實(shí)驗(yàn)結(jié)果
此外,我們還提供了充分的消融實(shí)驗(yàn)證明我們方法中每個技術(shù)是有效的,見表5。特別地,我們驗(yàn)證了我們提出的加性對抗學(xué)習(xí)對階段1網(wǎng)絡(luò)有顯著的提升效果,見圖7。
圖 7 加性對抗學(xué)習(xí)的提升效果。橫軸每個值代表階段1的模型在每個迭代步數(shù)時停下來輸出模型給階段2。紅色代表階段1模型的性能,藍(lán)色代表經(jīng)過加性對抗網(wǎng)絡(luò)提升后的模型性能。
-
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1209瀏覽量
24800 -
解耦
+關(guān)注
關(guān)注
0文章
40瀏覽量
11920 -
遷移學(xué)習(xí)
+關(guān)注
關(guān)注
0文章
74瀏覽量
5579
原文標(biāo)題:加性對抗學(xué)習(xí)新模型,消滅身份識別偏差 | CVPR 2019
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論