0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

對抗性解耦學(xué)習(xí),讓“夏蟲語冰”

DPVg_AI_era ? 來源:lq ? 2019-06-07 15:46 ? 次閱讀

人們常說“夏蟲不可語冰”。如果將這句話視為機(jī)器學(xué)習(xí)任務(wù),可以這樣理解:夏天生死的蟲子只見過液態(tài)的水,但從未見過冰。故而你即便拿給它一張冰的照片,它也認(rèn)不出來這是另一種形態(tài)的水。而本文要解決的,就是通過遷移學(xué)習(xí),讓夏天的蟲子也能認(rèn)出“冰實(shí)際就是水?!?/p>

摘要

身份認(rèn)證旨在確認(rèn)樣本和人的身份之間的從屬關(guān)系。典型的身份認(rèn)證包含人臉識別(face recognition)、行人重識別(personre-identification),基于移動設(shè)備的身份驗(yàn)證。

近年來數(shù)據(jù)驅(qū)動的身份認(rèn)證過程可能是有偏的,即,模型經(jīng)常只在一個領(lǐng)域里訓(xùn)練(例如對于穿著春裝的人),而可能需要在另一個領(lǐng)域里測試(例如這些人換上了夏裝)。

為了解決這個問題,我們提出了一個新穎的兩階段的方法來從領(lǐng)域差異里解耦出類別/身份的特征表示,且我們考慮多種類型的領(lǐng)域差異。在第一階段中,我們采用一個一對多的解耦學(xué)習(xí)(one-versus-rest disentangle learning , OVRDL)機(jī)制來學(xué)習(xí)解耦的特征表示。

在第二階段中,我們提出一個加性對抗學(xué)習(xí)(additive adversarial learning, AAL)機(jī)制來進(jìn)一步提升解耦性能。并且我們討論了如何避免由于解耦有因果關(guān)系的領(lǐng)域差異而陷入學(xué)習(xí)困境。實(shí)驗(yàn)結(jié)果充分證明了我們方法的有效性和優(yōu)越性。

相關(guān)代碼即將公布,請關(guān)注:https://github.com/langlrsw/AAL-unbiased-authentication。

研究目的:數(shù)據(jù)驅(qū)動的身份驗(yàn)證中的數(shù)據(jù)偏差問題

身份認(rèn)證考慮學(xué)習(xí)與驗(yàn)證數(shù)據(jù)樣本與人的身份之間的匹配關(guān)系。近年來,身份驗(yàn)證技術(shù)取得了巨大進(jìn)展,包括指紋驗(yàn)證、人臉驗(yàn)證、聲紋/虹膜驗(yàn)證、行人重識別等。然而,數(shù)據(jù)驅(qū)動的身份認(rèn)證過程經(jīng)常會面臨數(shù)據(jù)中的偏差,例如領(lǐng)域差異,即一個模型在一個領(lǐng)域中訓(xùn)練卻在另一個領(lǐng)域中進(jìn)行驗(yàn)證。例如在行人重識別領(lǐng)域中,當(dāng)季節(jié)導(dǎo)致人們穿衣變化時或者人與攝像機(jī)的相對角度發(fā)生變化時,驗(yàn)證都可能受到影響。

特別地,隨著智能終端的不斷普及,基于智能終端的身份驗(yàn)證技術(shù)也飛速發(fā)展。而上述情況在基于智能終端的身份驗(yàn)證上也會發(fā)生。比如,某個具體用戶(由一個虛擬賬號關(guān)聯(lián))的設(shè)備類型(由硬件特性或軟件編碼決定)可能會每一年變化一次,但是用來訓(xùn)練身份驗(yàn)證模型的數(shù)據(jù)可能每月采集一次。那么當(dāng)用戶對應(yīng)的設(shè)備類型改變時,如果我們依然用舊的設(shè)備類型上訓(xùn)練的模型來進(jìn)行身份認(rèn)證,就可能輸出錯誤的認(rèn)證結(jié)果。

面臨上述的訓(xùn)練和測試數(shù)據(jù)之間的領(lǐng)域差異的問題,簡單地應(yīng)用數(shù)據(jù)驅(qū)動的模型可能導(dǎo)致模型聚焦于每個領(lǐng)域的偏差,即便訓(xùn)練數(shù)據(jù)是充足的。為了避免該問題,本文研究了無偏身份驗(yàn)證的學(xué)習(xí)任務(wù)。

簡單起見,我們把身份認(rèn)證視為一個識別問題,即每個身份對應(yīng)于一個類。我們考慮多種類型的領(lǐng)域差異,每種領(lǐng)域差異有多種領(lǐng)域。例如,對于行人重識別而言,季節(jié)和拍攝角度是兩種類型的領(lǐng)域差異,其中季節(jié)包括四種不同的領(lǐng)域:春、夏、秋、冬,而拍攝角度包含的領(lǐng)域可以有:正面、側(cè)面、背面等。

表1 問題假設(shè)的范例

為了更好地理解我們的問題,我們展示了一個簡單的例子,其中只有一種類型的領(lǐng)域差異,見表 1。在訓(xùn)練階段,對于每個類別組,我們只有它們一個領(lǐng)域上的數(shù)據(jù)。換言之,不同的領(lǐng)域不會共享類別。在測試階段,我們需要識別的數(shù)據(jù)對應(yīng)于訓(xùn)練階段沒有見過的<類別,領(lǐng)域>的組合。

在數(shù)學(xué)上,該問題與領(lǐng)域自適應(yīng)相關(guān),但是二者也有顯著區(qū)別:

其一,領(lǐng)域自適應(yīng)允許源域和目標(biāo)域共享類別;其二,領(lǐng)域自適應(yīng)不提供目標(biāo)域的標(biāo)簽。領(lǐng)域自適應(yīng)在遷移學(xué)習(xí)領(lǐng)域中已經(jīng)被廣泛研究。而我們的問題可以被轉(zhuǎn)化為一個領(lǐng)域自適應(yīng)問題,如果測試領(lǐng)域的數(shù)據(jù)允許用于訓(xùn)練,且不提供對應(yīng)的標(biāo)簽的話。因此,我們把該問題稱之為一個廣義的跨領(lǐng)域識別(generalized cross-domain recognition, GCDR)問題。類似的問題在面向公平的機(jī)器學(xué)習(xí)(fairness-oriented machine learning, FML)領(lǐng)域中被研究過。該領(lǐng)域考慮的偏差主要來自于人口統(tǒng)計(jì)學(xué)群體的差別,例如膚色、性別等。在這種設(shè)定下,F(xiàn)ML方法通常也是應(yīng)用遷移學(xué)習(xí)方法來進(jìn)行解決。

在本文中,我們同樣考慮應(yīng)用遷移學(xué)習(xí)方法來學(xué)習(xí)無偏的表示。具體地,我們假設(shè)領(lǐng)域的差別對于數(shù)據(jù)的影響是未知的,且我們考慮應(yīng)用對稱、同質(zhì)的遷移學(xué)習(xí)方法,即,對所有域?qū)W出一個共同的特征空間,且假設(shè)所有域的原始特征空間都相同或者至少維數(shù)相同。

圖 1 解耦學(xué)習(xí)方法詳細(xì)網(wǎng)絡(luò)架構(gòu)圖

在本文中,我們提出了一個新穎的識別方法來學(xué)習(xí)解耦的特征表示,用于解決領(lǐng)域差異,最終實(shí)現(xiàn)無偏的識別。如表1中所示,對于一個具體的類別組,類別是不同的,但是領(lǐng)域是相同的。所以,學(xué)習(xí)一個無偏的模型來進(jìn)行類別識別是可能的。對于一個數(shù)據(jù)樣本,其類別標(biāo)簽和領(lǐng)域標(biāo)簽都被視為其屬性。我們的模型就是通過解耦這些屬性來學(xué)習(xí)無偏的表示。我們方法的詳細(xì)架構(gòu)見圖 1,其包含兩個階段。

在第一個階段中,我們提出一對多的解耦學(xué)習(xí)(one-versus-restdisentangle learning , OVRDL)機(jī)制來將每個樣本映射到多個隱層空間。在每個隱層空間里,我們將一個屬性與其他屬性解耦。在第二階段中,由于訓(xùn)練數(shù)據(jù)中僅見過有限的屬性值的組合,我們采用了一種數(shù)據(jù)增廣的方法來隨機(jī)組合屬性標(biāo)簽,以及拼接其對應(yīng)的隱層特征向量來作為一個新的數(shù)據(jù)樣本。

基于隨機(jī)拼接的特征,我們提出一個加性對抗學(xué)習(xí)(additive adversarial learning, AAL)機(jī)制來進(jìn)一步提升階段1的解耦性能。

簡單來講,我們通過最小化負(fù)面的副作用來消除偏差。我們將討論擴(kuò)展到如何避免由于解耦有因果關(guān)系的屬性而陷入學(xué)習(xí)困境。在基準(zhǔn)數(shù)據(jù)集和真實(shí)數(shù)據(jù)集上的實(shí)驗(yàn)證明了我們方法的有效性和優(yōu)越性。我們同時進(jìn)行了消融實(shí)驗(yàn)來展示我們框架的每一種成分的貢獻(xiàn)。

接下來,我們將具體介紹本文提出的方法的每一個具體技術(shù)和思路。

第一步: 更直接地解耦:揚(yáng)湯止沸,不如釜底抽薪。

通過多任務(wù)學(xué)習(xí),可以將多屬性解耦學(xué)習(xí)的框架簡單地以圖 2的形式來構(gòu)建。其中不同任務(wù)對應(yīng)的特征變換網(wǎng)絡(luò)的輸出特征是假設(shè)相互獨(dú)立的。

圖 2:“假設(shè)獨(dú)立”的學(xué)習(xí)框架。G網(wǎng)絡(luò)均為特征變換網(wǎng)絡(luò)。身份識別、是否有胡子、是否戴眼鏡為三個屬性,分別建模為三個任務(wù)進(jìn)行學(xué)習(xí)。不同G網(wǎng)絡(luò)輸出的特征假設(shè)相互獨(dú)立。

但是這種假設(shè)只是假設(shè),三個網(wǎng)絡(luò)輸出的特征的獨(dú)立性是無法保證的。

本文中我們提出通過對抗學(xué)習(xí)來進(jìn)行直接解耦,直接逼近“獨(dú)立”的假設(shè)目標(biāo)。如圖 3所示。

假設(shè)屬性數(shù)量圖中,D網(wǎng)絡(luò)分為兩類:對于

(1)所有的是用于學(xué)習(xí)第i個屬性的特征,所有的

(2)所有的Dii的學(xué)習(xí)是用標(biāo)準(zhǔn)的監(jiān)督學(xué)習(xí),

對于,一個簡單的對抗學(xué)習(xí)流程可以視為如下兩個交替進(jìn)行的步驟:

步驟1:固定所有,優(yōu)化來使得輸出逼近與之對應(yīng)的獨(dú)熱編碼的標(biāo)簽;

步驟2:固定所有

該對抗學(xué)習(xí)的最終目標(biāo)是使得所有可以提取與之對應(yīng)的第i個屬性的特征,而不能提取與之對應(yīng)的其他屬性的特征。如此,第i個屬性就可以和其他屬性解耦。

圖 3 “直接解耦實(shí)現(xiàn)獨(dú)立”的學(xué)習(xí)框架。其中綠色的D網(wǎng)絡(luò)通過對抗學(xué)習(xí)實(shí)現(xiàn)與藍(lán)色D網(wǎng)絡(luò)目標(biāo)的解耦,最終實(shí)現(xiàn)多個任務(wù)的相互獨(dú)立。

這一步驟中,我們的思路簡單可以概括為:假設(shè)獨(dú)立,不如直接解耦令之獨(dú)立。正如:揚(yáng)湯止沸,不如釜底抽薪。

第二步:數(shù)據(jù)增廣。張冠李戴,屬性隨機(jī)組合。

由于訓(xùn)練集中不同屬性的組合類型比較有限,我們將不同屬性對應(yīng)的隱層特征隨機(jī)組合。該機(jī)制模仿了人類通過想象未見過的屬性組合來進(jìn)行解耦學(xué)習(xí)的行為。

如圖4所示,假設(shè)我們只見過棕色的馬和白色的兔子,那么我們隨機(jī)組合馬和白色,組合出白色的馬,模仿人想象沒見過的白色的馬。

圖 4 屬性隨機(jī)組合示例

不過,這一步驟本身并不進(jìn)行解耦學(xué)習(xí),只是為之后我們提出的加性對抗解耦學(xué)習(xí)做準(zhǔn)備。其他遷移學(xué)習(xí)方法也有隨機(jī)生成,不過是在數(shù)據(jù)原空間生成,可能會引入新的誤差。而我們的方法相當(dāng)于在隱層空間生成新樣本,引入的誤差較少。

第三步,深入解耦,加性對抗學(xué)習(xí)。

知白馬是馬而更識白,知白馬是白而更識馬。

這一步驟的思路是這樣的:當(dāng)認(rèn)識到白馬也是馬,就會知道“白”這個概念中并沒有“不是馬”的概念,從而能更好地認(rèn)知“白”這個概念。反過來說,當(dāng)認(rèn)識到白馬也是白色的,就會知道“馬”這個概念中,并沒有“不是白色”的概念,從而能更好地認(rèn)知“馬”這個概念。

圖 5 加性對抗網(wǎng)絡(luò)的優(yōu)化機(jī)制。紅色的曲線箭頭表示loss進(jìn)行BP回傳的方向。對于左右兩張圖,最左邊的3個隱層特性向量都是由上一步的隨機(jī)組合得到的。

加性對抗網(wǎng)絡(luò)的優(yōu)化機(jī)制如圖 5所示。假設(shè)前兩個屬性分別為:物體類別和顏色類別。加性對抗網(wǎng)絡(luò)的前兩條支路依次對應(yīng)于這兩個屬性的學(xué)習(xí)。這里的第一路作為輸入的隱層向量是代表物體類別的特征向量,第二路作為輸入的隱層向量是代表顏色類別的特征向量。

首先,假設(shè)對于見過的屬性組合已經(jīng)學(xué)好了,例如,一匹棕色的馬可以被精確地識別為物體“馬”和顏色“棕”。之后,對于沒見過的屬性組合,一匹棕色的馬和一只白色的兔子,我們要讓網(wǎng)絡(luò)輸出物體“馬”和顏色“白”。

在假設(shè)見過的組合已經(jīng)學(xué)好的前提下,如果現(xiàn)在輸出的顏色不是“白”,那么我們有理由相信,誤差是來自于網(wǎng)絡(luò)第一條支路中的“棕色”的信息。那么我們將第二支路輸出產(chǎn)生的顏色誤差回傳至第一條支路來消除其中的顏色信息。這樣一來,在第一支路中的顏色信息產(chǎn)生的域差異就被消除了。同理,第二路中的物體信息產(chǎn)生的域差異也可以類似地被消除。

這種加性對抗網(wǎng)絡(luò)有很好的性質(zhì):可以使得經(jīng)過T網(wǎng)絡(luò)學(xué)習(xí)的s向量空間是加性空間,且對于多個特征向量,每一維的含義都相同。最終導(dǎo)致s向量空間中,所有維度的特征被劃分為若干組,每一組對應(yīng)于一個屬性。這樣一來就有很好的可解釋性。同時可以進(jìn)一步利用稀疏方法進(jìn)行優(yōu)化。

這一步驟的idea可以概括為:通過組合概念的加性混合交叉學(xué)習(xí)而消除概念之間的耦合關(guān)系。知白馬是馬而更識白,知白馬是白而更識馬。

第四步:拓展討論。避免因果關(guān)系造成的學(xué)習(xí)困境:皮之不存,毛將焉附。

之前的解耦方式是對每一個屬性,都選擇所有其他屬性進(jìn)行解耦,但這樣可能會將本來有關(guān)系的兩個屬性強(qiáng)制解耦,偏離真實(shí)情況。最極端的例子是,如果兩個屬性本身完全相同,那么在同一個特征空間里,不可能一個屬性可以識別而另一個無法識別。

故而,直觀上講,我們不應(yīng)該將相關(guān)的屬性解耦。但是,“相關(guān)”是一個非常寬泛、不精確的概念。如果但凡有兩個屬性有關(guān)系,我們就放棄對它們解耦,又可能會導(dǎo)致解耦不充分,每種屬性還是學(xué)不好。

所以,我們考慮一種特殊的相關(guān)關(guān)系:因果關(guān)系。我們在定理2中證明,對于任意的屬性A,如果另一個屬性B是A的因,那么學(xué)習(xí)識別A的特征且讓該特征無法識別B會有損于對A的識別。這是因?yàn)槿绻撎卣髋cB獨(dú)立,那么由于屬性B是A的因,該特征與A的相關(guān)也就很有限了。

如圖6所示,以階段1的學(xué)習(xí)為例。

在圖像上,由于劉海會遮擋眼鏡,故而“是否有劉海”會影響“是否有眼鏡”的判斷;但是反過來,“是否有眼鏡”不會影響“是否有劉?!钡呐袛唷9识绻鸊3輸出的特征無法區(qū)分是否有劉海,那么區(qū)分是否有眼鏡也很難保證,故而我們學(xué)習(xí)“是否戴眼鏡”的時候放棄了對于“是否有劉?!钡慕怦顚W(xué)習(xí)。綜上,如果有關(guān)于屬性間因果關(guān)系的先驗(yàn)信息的話,我們應(yīng)該停止某些解耦過程來避免上述的學(xué)習(xí)困境。

這一步驟中,我們的思路可以簡單概括為:因不可解耦。因?yàn)椋虿豢杀鎰t果亦難辨,正如:皮之不存,毛將焉附。

圖 6 基于因果關(guān)系有選擇地解耦學(xué)習(xí)示例

實(shí)驗(yàn)方法

階段1 對抗學(xué)習(xí)的優(yōu)化問題如下:

首先是屬性學(xué)習(xí)的優(yōu)化問題:

其中是屬性學(xué)習(xí)的損失函數(shù),是第j個屬性的權(quán)重,是屬性標(biāo)簽的one-hot向量。

其次是域差異的判別學(xué)習(xí):

其中是對抗學(xué)習(xí)的損失函數(shù),?是(j, j’)屬性對的權(quán)重。

第三步是消除域差異:

其中

在第三步中,我們也會同時強(qiáng)化屬性學(xué)習(xí):

判別網(wǎng)絡(luò)的最后一層的激活函數(shù)是softmax,是交叉熵?fù)p失,是平均平方誤差損失。上述4個優(yōu)化問題循環(huán)依次進(jìn)行。其中,每個循環(huán)中,前兩個優(yōu)化問題優(yōu)化1步,后兩個優(yōu)化問題優(yōu)化5步。

在階段2中,對于每個,我們隨機(jī)采樣訓(xùn)練樣本,然后取其第j個屬性向量。采樣得到的第i個樣本的第j個屬性的屬性向量表示為,其中。則對于每個我們將組合為一個新的隱層樣本。對于每個屬性,每個類別值的采樣概率是相同的。我們采用了ABS-Net中剔除低預(yù)測概率對應(yīng)的樣本。

定義如下兩個下標(biāo)集合:

如圖1所示,在階段2中,隨機(jī)組合的屬性向量被m個加性空間轉(zhuǎn)換網(wǎng)絡(luò)

對于訓(xùn)練中見過的屬性組合的樣本,損失回傳至每個屬性自己對應(yīng)的網(wǎng)絡(luò),不傳至其他屬性對應(yīng)的網(wǎng)絡(luò)。即對于每個

對于訓(xùn)練中沒見過的屬性組合的樣本,損失回傳至其他屬性對應(yīng)的網(wǎng)絡(luò),不傳至自己屬性對應(yīng)的網(wǎng)絡(luò)。即對于每個,我們優(yōu)化如下的優(yōu)化問題:

所有識別網(wǎng)絡(luò)(R網(wǎng)絡(luò))的最后一層激活函數(shù)也是softmax函數(shù)。是交叉熵?fù)p失函數(shù)。

根據(jù)我們對于有因果關(guān)系的屬性的討論,我們采用一個元素值為{0,1}的矩陣,否則即令。對于階段1,我們可以將乘在上,對于階段2,我們可以刪掉中以j為因的屬性。

實(shí)驗(yàn)結(jié)果:多個數(shù)據(jù)集上性能優(yōu)于對比方法

數(shù)據(jù)集方面,我們分別基于C-MNIST的數(shù)字識別數(shù)據(jù)集、CelebA的身份識別數(shù)據(jù)集、手機(jī)傳感器數(shù)據(jù)的身份識別數(shù)據(jù)集構(gòu)造了我們關(guān)注的身份類別由于領(lǐng)域差異而分組的數(shù)據(jù)集。我們主要參考aAUC、(aFAR+aFRR)/2、ACC@1作為衡量指標(biāo)。

在C-MNIST數(shù)據(jù)集上,我們比較了多種遷移學(xué)習(xí)方法的性能。其中除了SE-GZSL方法,我們的方法達(dá)到了最優(yōu)性能。而SE-GZSL在后面兩個真實(shí)數(shù)據(jù)集上表現(xiàn)不佳。

表2 C-MNIST數(shù)據(jù)集上的性能對比

在CelebA數(shù)據(jù)集、移動手機(jī)數(shù)據(jù)集上,我們的aAUC和(aFAR+aFRR)/2指標(biāo)都顯著優(yōu)于對比方法。

表3 CelebA數(shù)據(jù)集上性能對比

表4 移動手機(jī)數(shù)據(jù)集上的性能對比

表 5消融實(shí)驗(yàn)結(jié)果

此外,我們還提供了充分的消融實(shí)驗(yàn)證明我們方法中每個技術(shù)是有效的,見表5。特別地,我們驗(yàn)證了我們提出的加性對抗學(xué)習(xí)對階段1網(wǎng)絡(luò)有顯著的提升效果,見圖7。

圖 7 加性對抗學(xué)習(xí)的提升效果。橫軸每個值代表階段1的模型在每個迭代步數(shù)時停下來輸出模型給階段2。紅色代表階段1模型的性能,藍(lán)色代表經(jīng)過加性對抗網(wǎng)絡(luò)提升后的模型性能。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1209

    瀏覽量

    24800
  • 解耦
    +關(guān)注

    關(guān)注

    0

    文章

    40

    瀏覽量

    11920
  • 遷移學(xué)習(xí)
    +關(guān)注

    關(guān)注

    0

    文章

    74

    瀏覽量

    5579

原文標(biāo)題:加性對抗學(xué)習(xí)新模型,消滅身份識別偏差 | CVPR 2019

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    人工智能深度學(xué)習(xí)發(fā)展迅速,智能科技公司都已經(jīng)涉足人工智能產(chǎn)品的研發(fā)!

    深度學(xué)習(xí)(Deep Learning)核心技術(shù)開發(fā)與應(yīng)用1,Deep Learning—循環(huán)神經(jīng)網(wǎng)絡(luò)2,Deep Learning—CNN應(yīng)用案例3,Deep Learning—對抗性生成網(wǎng)絡(luò)4
    發(fā)表于 09-05 10:22

    深度學(xué)習(xí)DeepLearning實(shí)戰(zhàn)

    內(nèi)容2:課程一: Tensorflow入門到熟練:課程二:圖像分類:課程三:物體檢測:課程四:人臉識別:課程五:算法實(shí)現(xiàn):1、卷積神經(jīng)網(wǎng)絡(luò)CNN2、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN3、強(qiáng)化學(xué)習(xí)DRL4、對抗性生成
    發(fā)表于 01-09 17:01

    常用的設(shè)計(jì)方法

    在采用傳統(tǒng)無動態(tài)控制時,uqu_quq?和udu_dud?的指令值存在耦合項(xiàng)。上一個學(xué)習(xí)筆記中設(shè)計(jì)的設(shè)計(jì)方法是將其忽略,因此在最后設(shè)計(jì)的效果并不太好。目前,常用的
    發(fā)表于 08-27 07:29

    多變量控制實(shí)驗(yàn)

    多變量控制4.0 實(shí)驗(yàn)設(shè)備PC計(jì)算機(jī)1臺(要求P4-1.8G以上)、MATLAB6.X軟件1套。4.1 實(shí)驗(yàn)?zāi)康蘑?b class='flag-5'>學(xué)習(xí)多變量控制方法
    發(fā)表于 05-15 00:51 ?0次下載

    先進(jìn)PID多變量控制

    先進(jìn)PID多變量控制 通過PID控制,可實(shí)現(xiàn)對多變量系統(tǒng)的控制
    發(fā)表于 05-04 16:01 ?40次下載

    對抗性神經(jīng)網(wǎng)絡(luò)是什么?為何入選MIT2018十大突破性技術(shù)

    什么是對抗性神經(jīng)網(wǎng)絡(luò)?為什么它能入選MIT十大突破性技術(shù)?它的發(fā)展脈絡(luò)如何?與我們此前耳熟能詳?shù)纳窠?jīng)網(wǎng)絡(luò)有什么區(qū)別?能夠應(yīng)用在人工智能的哪些場景?還有哪些關(guān)鍵問題有待攻克?
    發(fā)表于 03-28 10:20 ?1.4w次閱讀

    對抗樣本是如何在不同的媒介上發(fā)揮作用的,為什么保護(hù)系統(tǒng)很難對抗它們?

    我們發(fā)現(xiàn),對抗性訓(xùn)練和防御性精煉都意外地執(zhí)行了一種梯度掩碼。這兩種算法都沒有明確地被設(shè)計(jì)來執(zhí)行梯度掩碼,但是當(dāng)算法被訓(xùn)練來保護(hù)自己并且沒有給出具體的指令時,梯度掩碼顯然是一種機(jī)器學(xué)習(xí)算法可以相對容易地發(fā)明出的防御措施。
    的頭像 發(fā)表于 04-16 15:36 ?7722次閱讀

    迫使神經(jīng)網(wǎng)絡(luò)完成計(jì)劃之外的任務(wù)

    谷歌的研究人員在Arxiv.org發(fā)表了一篇題為“神經(jīng)網(wǎng)絡(luò)的對抗性重編程”的論文,描述了一種能夠?qū)C(jī)器學(xué)習(xí)系統(tǒng)進(jìn)行重新編程的對抗性方法。
    的頭像 發(fā)表于 07-13 09:29 ?2701次閱讀

    抗壓縮對抗框架ComReAdv:可讓人臉識別算法失效

    回書說到,現(xiàn)在,對抗攻擊的理念已經(jīng)被應(yīng)用到隱私保護(hù)領(lǐng)域:通過給照片添加肉眼看不出來的對抗性噪聲,來蒙蔽人臉識別AI,達(dá)到保護(hù)隱私的效果。
    發(fā)表于 08-19 16:50 ?618次閱讀
    抗壓縮<b class='flag-5'>對抗</b>框架ComReAdv:可讓人臉識別算法失效

    電容如何放置

    警告: 請注意電容的位置,尤其是IC芯片的電源與地引腳是斜對角的。 潛在問題: 不合理的位置會導(dǎo)致不充分的。 預(yù)防措施: -對于像直插這樣的IC,其電源端子與地是端子成對角放置
    的頭像 發(fā)表于 09-30 09:18 ?4160次閱讀
    電容<b class='flag-5'>解</b><b class='flag-5'>耦</b>如何放置

    PWIL:不依賴對抗性的新型模擬學(xué)習(xí)

    最前沿的對抗 IL 方法的運(yùn)作方式與生成對抗網(wǎng)絡(luò) (GAN) 類似:訓(xùn)練生成器(策略)以最大化判別器(獎勵)的混淆度,以便判別器本身被訓(xùn)練來區(qū)分智能體的狀態(tài)-動作對和專家的狀態(tài)-動作對。
    的頭像 發(fā)表于 10-13 10:01 ?2229次閱讀
    PWIL:不依賴<b class='flag-5'>對抗性</b>的新型模擬<b class='flag-5'>學(xué)習(xí)</b>

    一種產(chǎn)生DSN放大攻擊的深度學(xué)習(xí)技術(shù)

    ,深度學(xué)習(xí)已證明自己是網(wǎng)絡(luò)安全中非常有價(jià)值的工具,因?yàn)樗梢詭椭W(wǎng)絡(luò)入侵檢測系統(tǒng)對攻擊進(jìn)行分類并檢測新攻擊。對抗性學(xué)習(xí)是利用機(jī)器學(xué)習(xí)生成一組受擾動的輸入,然后饋送到神經(jīng)網(wǎng)絡(luò)以對其進(jìn)行錯
    的頭像 發(fā)表于 10-11 09:21 ?1194次閱讀
    一種產(chǎn)生DSN放大攻擊的深度<b class='flag-5'>學(xué)習(xí)</b>技術(shù)

    永磁同步電機(jī)控制之反饋及復(fù)矢量

    永磁同步電機(jī)反饋及復(fù)矢量(無刷直流電機(jī)等交流電機(jī)同樣適用) 一、永磁同步電機(jī)數(shù)學(xué)模型 1.永磁同步電機(jī)dq坐標(biāo)系數(shù)學(xué)模型 2.永磁同步電機(jī)復(fù)矢量數(shù)學(xué)模型 二、
    發(fā)表于 03-09 10:09 ?2次下載
    永磁同步電機(jī)控制之反饋<b class='flag-5'>解</b><b class='flag-5'>耦</b>及復(fù)矢量<b class='flag-5'>解</b><b class='flag-5'>耦</b>

    人工智能在實(shí)現(xiàn)對抗性后勤方面的作用

    近日,美國人工智能公司SparkCognition的陸軍項(xiàng)目總監(jiān)阿特·塞勒斯在Defensescoop網(wǎng)站上撰文,提出人工智能在實(shí)現(xiàn)對抗性后勤方面可以發(fā)揮的四大作用。主要觀點(diǎn)如下: 在現(xiàn)代戰(zhàn)爭的今天
    的頭像 發(fā)表于 07-04 15:34 ?1394次閱讀

    鑒源實(shí)驗(yàn)室·如何通過雷達(dá)攻擊自動駕駛汽車-針對點(diǎn)云識別模型的對抗性攻擊的科普

    非常精確,它們也面臨一種新興的威脅——對抗性攻擊。 對抗性攻擊是一種通過微小但精心設(shè)計(jì)的擾動,旨在欺騙機(jī)器學(xué)習(xí)模型的攻擊方式。對于自動駕駛系統(tǒng)而言,這意味著通過對傳感器輸入的數(shù)據(jù)進(jìn)行極小的修改,攻擊者可以導(dǎo)致自動駕
    的頭像 發(fā)表于 11-05 15:44 ?350次閱讀
    鑒源實(shí)驗(yàn)室·如何通過雷達(dá)攻擊自動駕駛汽車-針對點(diǎn)云識別模型的<b class='flag-5'>對抗性</b>攻擊的科普