如同一些出生免疫力就有缺陷的人一樣,AI也存在免疫力缺陷?;趶脑搭^打造安全免疫力的新一代安全架構(gòu)理念,最近,阿里安全研究發(fā)布了一項核心技術(shù)“AI安全診斷大師”,可對AI模型全面體檢,“看診開方”,讓AI模型出生就自帶增強型免疫力,抵御安全威脅?!癆I安全診斷大師”包括一款對AI模型安全性進行評估和提升防御能力的工具箱,對多個云上算法接口進行安全性測試后,還沉淀出一套在實際生產(chǎn)中能對惡意攻擊進行過濾,降低安全風險的AI防火墻系統(tǒng)。
中國科學院計算技術(shù)研究所副研究員王樹徽認為,在數(shù)字基建當中,人工智能技術(shù)的安全問題關(guān)乎到整個信息經(jīng)濟基礎(chǔ)設(shè)施的安全,已越來越受到社會各界的關(guān)注。雖然近年來針對人工智能安全的理論研究取得了一些進展,但在實際應用方面,仍然沒有切實可行的落地成果提高真實場景下人工智能系統(tǒng)的魯棒性。
“阿里安全團隊提出了新一代安全架構(gòu)及相關(guān)核心技術(shù),正是針對數(shù)字基建中的人工智能安全問題進行的一次體系化探索和創(chuàng)新。”王樹徽說。
“AI安全診斷大師”能干什么
AI在安全性上存在的問題來源于機器感知和人類感知的區(qū)別,人類感知是全局的,同時具備底層局部特征和高層語義特征的感知和認知能力,對于圖像或者文本在某些局部區(qū)域的微小擾動能夠有很高的容忍度,不易收到干擾。
科研實驗結(jié)果表明,目前主流的AI模型則對局部的微小擾動可能會很敏感,一些細微不可見的改動就可以引起算法輸出結(jié)果上的巨大誤差,這種針對AI模型產(chǎn)生的特定擾動被稱為對抗樣本。自從2014年對抗樣本被提出后,越來越多的研究人員通過實驗發(fā)現(xiàn),面向圖像、語音、文本等載體的分類、檢測、檢索等模型都會受到對抗樣本的攻擊。
對抗樣本攻擊產(chǎn)生的后果可能是非常嚴重的。在互聯(lián)網(wǎng)內(nèi)容業(yè)務中,有些惡意行為可能通過上傳對抗樣本以規(guī)避算法檢測或者繞開機器監(jiān)管,導致不良信息泛濫?;蛘咄ㄟ^佩戴經(jīng)過特定設(shè)計、有對抗攻擊能力的眼鏡等物體,導致在手機解鎖、線下安防等領(lǐng)域誤導AI系統(tǒng),引發(fā)事故或者損失。
車輛的輔助駕駛和自動駕駛系統(tǒng)也可能會因AI技術(shù)的安全缺陷喪失識別交通指示牌的能力,成為“沒有視覺系統(tǒng)”的汽車,從而給出錯誤的決策,遇到大型障礙物時“看不到”停車標志,威脅人身和財產(chǎn)安全;
據(jù)阿里安全圖靈實驗室高級算法專家華棠介紹,“AI安全診斷大師”可針對AI本身的安全問題,提供全方位的安全性能評估服務和定制化的防御提升方案。通過測試和發(fā)現(xiàn)算法可能出錯的某些特殊情形,給出有針對性的模型防御增強建議。
值得注意的是,“安全診斷”看得見。這種“安全診斷”能給出診斷的綜合分數(shù)、單項分數(shù),并將安全威脅展示出來。“AI安全診斷大師”提供了模型安全性可視化分析結(jié)果,將模型的損失曲面相對不同方向的擾動量以二維及三維圖例來呈現(xiàn)出來。
下圖可以直觀地看出AI模型面對擾動下的安全性,或者對不同模型進行安全性對比,曲面越平緩的算法對惡意攻擊更加魯棒,安全性更強。下圖是模型輸出loss與擾動的對應關(guān)系,其中橫軸是隨機擾動,縱軸是對抗擾動,可以看出在隨機擾動方向上不斷加大噪聲強度,但loss變化趨勢平緩,表明模型對隨機擾動具備一定的魯棒性。而在對抗擾動方向上加大噪聲強度可能導致loss急劇加大,導致模型輸出結(jié)果發(fā)生變化,攻擊成功。
目前研究人員已經(jīng)提出了不少對抗樣本攻擊方法,不同模型對于不同的攻擊算法的防御能力表現(xiàn)也會不一樣,因此對AI模型進行安全評估時,需要針對各種攻擊算法進行獨立評估,同時也有必要綜合多個評估結(jié)果給出整體結(jié)論。
為此,“AI安全診斷大師”集成了目前業(yè)界常見的攻擊算法,同時也在不斷補充這一集合。對于目標模型,基于每種算法都能給出擾動量-識別率曲線以評估模型面對該算法攻擊下的防御性能,綜合了各種算法和各擾動量下的識別率給出最終安全性評估分值。
以下是“AI安全診斷大師”分別處于Resnet50和VGG16中,在不同攻擊下的魯棒性表現(xiàn)。橫軸是擾動的噪聲強度,縱軸是模型識別準確率,每一條實曲線表示一種攻擊方法,可以看出使用相同攻擊方法時擾動強度越大則攻擊成功率越高,導致模型識別準確率下降越多;而虛線是在每一個擾動強度下多種攻擊方法下模型識別準確率的最小值組成的,表示模型在該擾動強度下的最低防御能力。因此,曲線下的面積可用于評估模型在各攻擊方法和綜合方法下的魯棒性。
除了對模型進行面對白盒攻擊的安全評估之外,它還可以提供黑盒攻擊實驗并進行安全評估。就好比對于那些不方便“面診”的“患者”,只能提供API接口的AI服務,“AI安全診斷大師”提供了多種黑盒查詢攻擊和遷移攻擊的手段,只需要調(diào)用接口即可評測服務的安全性。
對于模型的安全性能評估不是最終目標?!癆I安全診斷大師”檢測出算法服務的潛在安全風險后,還會提供針對惡意攻擊的防火墻功能,通過算法對不同種類攻擊的脆弱性程度,定制化提出防御升級的方案。
下圖是通過黑盒遷移攻擊針對多個算法API進行實驗后,繪制的成功率直方圖報告。圖中左側(cè)部分是在輸入樣本中添加不同的隨機噪聲后,導致算法輸出結(jié)果出錯的比例,在大部分情況下各API都具備了較高的魯棒性,右側(cè)則是使用不同的對抗樣本生成方法進行的攻擊,其中白盒攻擊成功率最高,而黑盒攻擊下各API之間的成功率差別就非常明顯了,也表示它們所用的模型在安全性上的差距。
“將多種攻擊檢測和對抗防御方法作為附加模塊,可為AI模型部署前置服務,在不修改原模型的基礎(chǔ)上,提升模型對于對抗樣本攻擊的防御性能,降低用戶使用成本和風險。經(jīng)過在色情、暴恐、敏感圖像識別等多種內(nèi)容安全服務上的測試,‘AI安全診斷大師’可將模型對外部攻擊的有效防御能力整體提升40%以上?!比A棠說。
王樹徽評價:“阿里安全從整體層面考慮了人工智能安全的架構(gòu)性漏洞,提出了‘安全基建’的構(gòu)想和技術(shù)系統(tǒng)。在關(guān)鍵技術(shù)層面,集成了最新的AI攻防技術(shù),充分考慮了人工智能安全攻防兩端的應用需求,分析結(jié)果可解釋性強,易于理解并指導實踐。在實用層面,提供了一套切實可行、即插即用的解決方案,定制化提出防御升級方案,幫助廣大人工智能技術(shù)實踐者有效提高其算法系統(tǒng)的免疫力和安全水平。此外,阿里安全的新一代安全架構(gòu)的應用成果也有望促進人工智能技術(shù)的發(fā)展和進步,為新一代人工智能的理論方法研究提供了支持。”
目前阿里安全正在與相關(guān)部門、高校、企業(yè)一起參與人工智能安全標準的制定,“AI安全診斷大師”作為優(yōu)秀應用案例被收錄于全國信息標準化技術(shù)委員會打造的《人工智能安全標準化白皮書(2019版)》。
對AI攻防的探索
除了嘗試將模型攻擊防御技術(shù)在實際算法服務場景上落地,阿里安全圖靈實驗室的工程師也在堅持研發(fā)新技術(shù)推動AI安全更好地服務實際應用。
在攻擊方面,他們提出一種針對k近鄰分類器的攻擊方法,k近鄰分類器作為無參模型,不會回傳梯度,也就無法提供信息用于對抗樣本的生成。為了攻擊這樣的模型,研究者們設(shè)計了一種新的策略,提出了深度k近鄰區(qū)塊(DkNNB),用于估計k近鄰算法的輸出。具體的,提取深度分類模型某層特征,使用k近鄰方法可以獲得其最近的k個鄰居,并統(tǒng)計這些鄰居的標簽分布,以每類出現(xiàn)概率分布作為最終的優(yōu)化目標,來優(yōu)化DkNNB參數(shù)。
在防御方面,他們提出了一種基于Transformer的對抗樣本檢測方法,改進了傳統(tǒng)對抗樣本檢測方法只能檢測特定攻擊,難以泛化到其他攻擊的缺陷。新的對抗樣本檢測方法通過自適應的學習樣本在特征空間中與其k近鄰個樣本特征之間的關(guān)聯(lián),得到比傳統(tǒng)用特征空間人工距離度量來分類,更加泛化通用的檢測器。該方法面向更加實際場景的對抗攻擊檢測,目前已在某些內(nèi)部場景中測試使用。
另外,阿里安全圖靈實驗室的研究者發(fā)現(xiàn),自監(jiān)督模型在對抗樣本上的具有的天然防御能力,以此為基礎(chǔ),提出了一種新的基于自監(jiān)督模型的對抗訓練方法,進一步提升了模型的防御能力,以上兩個工作即將在線上舉辦的ICASSP 2020學術(shù)會議發(fā)表。
不久前,阿里安全還發(fā)布了一個高效打造AI深度模型的“AI訓練師助手”,讓AI訓練模型面對新場景時不用從頭學習,直接從已經(jīng)存在的模型上遷移,迅速獲得別人的知識、能力,成為全新的AI模型,將模型打造周期從一個月縮短為一天。
搭建AI安全研究者社區(qū)
為了讓AI對抗研究進展更快,阿里安全圖靈實驗室正在搭建對抗攻防研究者社區(qū),聯(lián)合天池承辦一系列AI對抗攻防競賽,并面向頂尖高校企業(yè)進行推廣,吸引了大批高水平的選手。已舉辦的比賽覆蓋了從ImageNet圖像分類、淘寶類目識別、人臉識別等多個場景。
阿里安全圖靈實驗室的工程師們開發(fā)了完整的后臺評估框架,可以評測包含白盒/黑盒攻擊、有目標/無目標攻擊、模型防御等多種攻防場景。
華棠表示,從已經(jīng)成功舉辦的比賽看,多種外部選手提供的攻擊或者防御策略,為發(fā)現(xiàn)更多實際場景中AI算法的潛在威脅,并針對這些威脅開發(fā)魯棒模型提供了參考。
阿里安全圖靈實驗室在2019年上半年成功舉辦了阿里巴巴首個AI對抗算法競賽,以淘寶寶貝主圖圖像類目分類預測作為場景,公開了11萬張,110個類的淘寶商品圖像數(shù)據(jù)集,包含服裝、鞋子、生活家居用品等類目。
比賽通過無目標攻擊,有目標攻擊和防御三個賽道進行,吸引了2500支高校隊伍參加。推動了AI安全領(lǐng)域被更多人知曉,并打造了AI對抗樣本研究者社區(qū),促進交流的同時,也讓更多感興趣的人加入到其中來。
隨后,阿里安全圖靈實驗室聯(lián)合清華大學舉辦安全AI挑戰(zhàn)者計劃系列賽,探索在現(xiàn)實場景中,對抗攻擊的可行性。為了模擬最真實的黑盒場景,這個系列賽并不公開后臺算法,也禁止選手大量query后臺模型。第一季的安全AI挑戰(zhàn)者計劃分為三期,場景分別為人臉識別,ImageNet圖像分類,以及文本分類。現(xiàn)在,第一季的安全AI挑戰(zhàn)者計劃已經(jīng)結(jié)束,選手們參賽的同時也體驗了真實場景中AI安全攻防的復雜性。
責任編輯:gt
-
AI
+關(guān)注
關(guān)注
87文章
30947瀏覽量
269216 -
阿里
+關(guān)注
關(guān)注
6文章
438瀏覽量
32839
發(fā)布評論請先 登錄
相關(guān)推薦
評論