人工智能和機(jī)器學(xué)習(xí)在帶來好處的同時(shí)也帶來了新的漏洞。本文介紹了幾家公司是如何將風(fēng)險(xiǎn)降到最低的。
當(dāng)企業(yè)采用了新技術(shù)時(shí),安全性往往會(huì)被擱置一邊。盡快以最低的成本向客戶和內(nèi)部用戶提供新的產(chǎn)品或服務(wù)似乎更為重要。而良好的安全性則可能是緩慢和昂貴的。
人工智能(AI)和機(jī)器學(xué)習(xí)(ML)不僅提供了與早期技術(shù)進(jìn)步相同的漏洞和錯(cuò)誤配置機(jī)會(huì),也有其獨(dú)特的風(fēng)險(xiǎn)。隨著企業(yè)開始進(jìn)行以人工智能為動(dòng)力的數(shù)字化轉(zhuǎn)型,這些風(fēng)險(xiǎn)可能會(huì)變得更大?!斑@不是一個(gè)很好的搶占領(lǐng)域?!盉ooz Allen Hamilton的首席科學(xué)家Edward Raff說。
與其他技術(shù)相比,AI和ML需要更多的數(shù)據(jù)以及更復(fù)雜的數(shù)據(jù)。數(shù)學(xué)家和數(shù)據(jù)科學(xué)家所開發(fā)的算法是從研究項(xiàng)目中走出來的?!拔覀冎皇亲罱砰_始從一個(gè)科學(xué)界的角度來理解人工智能所存在安全問題?!盧aff說。
數(shù)量和處理需求也意味著云平臺(tái)通常還要繼續(xù)處理工作負(fù)載,這增加了另一個(gè)級(jí)別的復(fù)雜性和脆弱性。對(duì)于人工智能使用者來說,網(wǎng)絡(luò)安全是最令人擔(dān)憂的風(fēng)險(xiǎn),這一點(diǎn)也不奇怪。德勤在2020年7月發(fā)布的一項(xiàng)調(diào)查顯示,62%的采訪者認(rèn)為網(wǎng)絡(luò)安全風(fēng)險(xiǎn)是一個(gè)重大或極端問題,但只有39%的人表示他們已經(jīng)準(zhǔn)備好應(yīng)對(duì)這些風(fēng)險(xiǎn)。
使問題變得更加復(fù)雜的是,網(wǎng)絡(luò)安全也是人工智能最重要的功能之一。德勤的技術(shù)、媒體和電信中心執(zhí)行董事Jeff Loucks表示,與人工智能合作的組織越有經(jīng)驗(yàn),他們就越擔(dān)心網(wǎng)絡(luò)安全風(fēng)險(xiǎn)。
此外,企業(yè),即使是更有經(jīng)驗(yàn)的企業(yè),也沒有能夠遵循的基本安全實(shí)踐,例如保留所有人工智能和最大限度語言項(xiàng)目的完整清單或是進(jìn)行審計(jì)和測(cè)試?!肮粳F(xiàn)在在實(shí)施這些措施方面做得并不好?!盠oucks說。
由AI和ML的數(shù)據(jù)需求所帶來的風(fēng)險(xiǎn)
AI和ML系統(tǒng)需要三組數(shù)據(jù):
?建立預(yù)測(cè)模型的訓(xùn)練數(shù)據(jù)
?評(píng)估模型工作情況的測(cè)試數(shù)據(jù)
?當(dāng)模型投入工作時(shí),實(shí)時(shí)的業(yè)務(wù)或運(yùn)營數(shù)據(jù)
雖然實(shí)時(shí)的業(yè)務(wù)或運(yùn)營數(shù)據(jù)顯然是一項(xiàng)寶貴的公司資產(chǎn),但也很容易忽略其中包含敏感信息的訓(xùn)練和測(cè)試數(shù)據(jù)池。
許多用于保護(hù)其他系統(tǒng)中數(shù)據(jù)的原則也可以應(yīng)用于AI和ML項(xiàng)目,包括匿名化、令牌化和加密。第一步是詢問是否真的需要數(shù)據(jù)。在為AI和ML項(xiàng)目做準(zhǔn)備時(shí),收集所有可能的數(shù)據(jù),然后看看能用它們做些什么是很誘人的。
關(guān)注業(yè)務(wù)成果可以幫助企業(yè)將收集的數(shù)據(jù)限制在需要的范圍之內(nèi)。“數(shù)據(jù)科學(xué)團(tuán)隊(duì)可能非??释麛?shù)據(jù)?!睘榻逃龣C(jī)構(gòu)分析學(xué)生數(shù)據(jù)的Othot公司首席技術(shù)官John Abbatico表示?!拔覀?cè)谔幚韺W(xué)生數(shù)據(jù)時(shí)明確表示,高度敏感的PII[個(gè)人身份信息]是不需要的,也不應(yīng)包含在提供給我們團(tuán)隊(duì)的數(shù)據(jù)當(dāng)中?!?/p>
當(dāng)然,錯(cuò)誤確實(shí)會(huì)發(fā)生。例如,客戶有時(shí)會(huì)提供敏感的個(gè)人信息,如社會(huì)保險(xiǎn)號(hào)碼。這些信息不會(huì)提高模型的性能,但卻會(huì)產(chǎn)生額外的風(fēng)險(xiǎn)。Abbatico說他的團(tuán)隊(duì)有一個(gè)程序來識(shí)別PII,從所有系統(tǒng)中清除它,并將錯(cuò)誤通知給客戶?!拔覀儾徽J(rèn)為這是一起安全事件,但我們的做法會(huì)讓它看起來像是?!?/p>
人工智能系統(tǒng)也需要情境化的數(shù)據(jù),這會(huì)大大增加公司的風(fēng)險(xiǎn)敞口。假設(shè)一家保險(xiǎn)公司希望更好地掌握其客戶的駕駛習(xí)慣,它可以購買購物、駕駛、位置和其他的數(shù)據(jù)集,這些數(shù)據(jù)集可以很容易地相互關(guān)聯(lián)并與客戶賬戶相匹配。這種新的、指數(shù)級(jí)的豐富數(shù)據(jù)集對(duì)黑客也更有吸引力,如果被攻破,對(duì)公司的聲譽(yù)也更具破壞性。
人工智能的安全性設(shè)計(jì)
在線文件共享平臺(tái)Box是一家需要保護(hù)大量數(shù)據(jù)的公司。Box正在使用AI來提取元數(shù)據(jù),以提高搜索、分類等能力?!袄?,我們可以從合同中提取條款、續(xù)約和定價(jià)信息?!盉ox的CISO Lakshmi Hanspal說?!拔覀兊拇蠖鄶?shù)客戶大都來自這樣一個(gè)時(shí)代,他們的內(nèi)容分類要么是用戶定義的,要么是完全被忽視的。他們坐擁的數(shù)據(jù)堆積如山,這些數(shù)據(jù)可能對(duì)數(shù)字化轉(zhuǎn)型有用--如果內(nèi)容能夠被分類、自我感知,而不需要等待人類行動(dòng)的話?!?/p>
Hanspal說,保護(hù)數(shù)據(jù)是Box的一個(gè)關(guān)鍵支柱,同樣的數(shù)據(jù)保護(hù)標(biāo)準(zhǔn)也適用于人工智能系統(tǒng),包括訓(xùn)練數(shù)據(jù)?!霸贐ox,我們相信我們建立的是信任,我們銷售的是信任,我們維護(hù)的也是信任。我們堅(jiān)信,這需要融入我們?yōu)楹献骰锇楹涂蛻籼峁┑漠a(chǎn)品當(dāng)中,而不是被捆綁在一起。”
這意味著所有系統(tǒng),包括新的人工智能項(xiàng)目,都應(yīng)該是圍繞核心數(shù)據(jù)安全原則而構(gòu)建的,包括加密、日志記錄、監(jiān)控、身份驗(yàn)證和訪問控制?!皵?shù)字信任是我們平臺(tái)與生俱來的,我們需要將它付諸實(shí)踐?!盚anspal說。
Box為傳統(tǒng)代碼和新的AI和ML驅(qū)動(dòng)的系統(tǒng)提供了一個(gè)安全的開發(fā)流程?!拔覀?cè)陂_發(fā)安全產(chǎn)品方面符合國際標(biāo)準(zhǔn)化組織的行業(yè)標(biāo)準(zhǔn),”Hanspal說。“基于設(shè)計(jì)的安全性是內(nèi)置的,并且存在著制衡機(jī)制,包括滲透測(cè)試和紅隊(duì)測(cè)試。這是一個(gè)標(biāo)準(zhǔn)的流程,AI和ML項(xiàng)目不會(huì)有什么不同?!?/p>
數(shù)學(xué)家和數(shù)據(jù)科學(xué)家在編寫AI和ML算法代碼時(shí),一般不需要擔(dān)心潛在的漏洞。企業(yè)在構(gòu)建AI系統(tǒng)時(shí),會(huì)借鑒可用的開源算法,使用商業(yè)“黑盒”AI系統(tǒng),或者從頭構(gòu)建自己的系統(tǒng)。
使用開放源代碼,攻擊者就有可能在惡意代碼中溜走,或者代碼中包含漏洞或脆弱的依賴關(guān)系。專有商業(yè)系統(tǒng)也會(huì)使用開源代碼,再加上企業(yè)客戶通??床坏降男麓a。
逆向攻擊是一個(gè)主要威脅
AI和ML系統(tǒng)通常是開源庫和非安全工程師所創(chuàng)建的新編寫代碼的組合。另外,在編寫安全人工智能算法方面,也沒有標(biāo)準(zhǔn)的最佳實(shí)踐。鑒于安全專家和數(shù)據(jù)科學(xué)家的短缺,這兩方面的專家甚至?xí)佟?/p>
AI和ML算法最大的潛在風(fēng)險(xiǎn)之一,也是Booz Allen Hamilton的Raff最為關(guān)注的長期威脅之一,就是訓(xùn)練數(shù)據(jù)泄露給攻擊者的可能性?!坝辛四嫦蚬?,你就可以讓人工智能模型給你關(guān)于它自己和它被訓(xùn)練的信息?!彼f?!叭绻窃赑II數(shù)據(jù)上訓(xùn)練出來的,你就可以讓模型把那些信息泄露給你。實(shí)際的PII可能會(huì)暴露出來?!?/p>
Raff說,這是一個(gè)需要積極研究的領(lǐng)域,也是一個(gè)巨大的潛在痛點(diǎn)。一些工具可以保護(hù)訓(xùn)練數(shù)據(jù)免受逆向攻擊 ,但是它們太昂貴了?!拔覀冎廊绾巫柚惯@種情況,但這樣做會(huì)使模型的訓(xùn)練成本增加100倍?!彼f?!斑@不是我夸大其詞。訓(xùn)練模型的成本和時(shí)間都會(huì)高出100倍,所以沒人會(huì)這么做?!?/p>
你無法保護(hù)你無法解釋的東西
另一個(gè)研究領(lǐng)域是可解釋性。今天,許多人工智能和移動(dòng)計(jì)算系統(tǒng)--包括許多主要網(wǎng)絡(luò)安全供應(yīng)商所提供的人工智能和移動(dòng)計(jì)算工具--都是“黑盒”系統(tǒng)。“供應(yīng)商沒有建立起可解釋性,”YL Ventures的常駐CISO Sounil Yu說?!霸诎踩I(lǐng)域,能夠解釋發(fā)生了什么是一個(gè)基本的組成部分。如果我不能解釋為什么會(huì)發(fā)生,我該如何解決它呢?”
對(duì)于那些能夠構(gòu)建起自己的AI或ML系統(tǒng)的公司來說,當(dāng)出現(xiàn)問題時(shí),他們可以返回到訓(xùn)練數(shù)據(jù)或所使用的算法,并修復(fù)問題?!叭绻闶菑膭e人那里建立起來的,你就根本不知道培訓(xùn)數(shù)據(jù)是什么?!盰u說。
需要保護(hù)的不僅僅是算法
人工智能系統(tǒng)不僅僅是一個(gè)自然語言處理引擎,也不僅僅是一個(gè)分類算法,或者僅僅是一個(gè)神經(jīng)網(wǎng)絡(luò)。即使這些部分是完全安全的,系統(tǒng)仍然需要與用戶和后端平臺(tái)交互。
系統(tǒng)是否使用了強(qiáng)認(rèn)證和最小特權(quán)原則?后端數(shù)據(jù)庫的連接安全嗎?與第三方數(shù)據(jù)源的連接又如何?用戶界面是否具有抗注入攻擊的彈性?
另一個(gè)與人有關(guān)的不安全感來源是人工智能和人工智能項(xiàng)目所獨(dú)有的:數(shù)據(jù)科學(xué)家?!八麄儾粫?huì)無緣無故地被稱為科學(xué)家,”O(jiān)thot的Abbatico說?!皟?yōu)秀的數(shù)據(jù)科學(xué)家能夠利用數(shù)據(jù)進(jìn)行實(shí)驗(yàn),從而得出有洞察力的模型。然而,在數(shù)據(jù)安全方面,實(shí)驗(yàn)可能會(huì)導(dǎo)致危險(xiǎn)的行為。”他們可能會(huì)在處理完數(shù)據(jù)后,試圖將數(shù)據(jù)移動(dòng)到不安全的位置或刪除樣本數(shù)據(jù)集。Othot在早期就投資獲得了SOC II認(rèn)證,這些控制有助于在整個(gè)公司內(nèi)實(shí)施強(qiáng)而有力的數(shù)據(jù)保護(hù)實(shí)踐,包括在移動(dòng)或刪除數(shù)據(jù)方面。
“事實(shí)上,世界各地大多數(shù)人工智能模型的最大風(fēng)險(xiǎn)并不在人工智能中,”人工智能機(jī)構(gòu)Urvin AI的產(chǎn)品經(jīng)理、國際非盈利安全研究機(jī)構(gòu)ISECOM的聯(lián)合創(chuàng)始人Peter Herzog說。他說,問題出在人的身上?!皼]有一個(gè)人工智能模型是沒有安全問題的,因?yàn)槭侨藗儧Q定了如何訓(xùn)練他們,是人們決定了包括什么數(shù)據(jù),是人們決定了他們想要預(yù)測(cè)什么,是人們決定了暴露多少信息?!?/p>
AI和ML系統(tǒng)特有的另一個(gè)安全風(fēng)險(xiǎn)是數(shù)據(jù)中毒,攻擊者會(huì)將信息饋送到系統(tǒng)中,迫使系統(tǒng)做出不準(zhǔn)確的預(yù)測(cè)。例如,攻擊者可以通過向系統(tǒng)提供具有與惡意軟件類似指標(biāo)的合法軟件示例,誘使系統(tǒng)認(rèn)為惡意軟件是安全的。
Raff說,這是大多數(shù)組織高度關(guān)注的問題?!艾F(xiàn)在,我還不知道有任何人工智能系統(tǒng)在現(xiàn)實(shí)生活中受到了攻擊,”他說?!斑@是一個(gè)真正的威脅,但現(xiàn)在攻擊者用來逃避殺毒的經(jīng)典工具仍然有效,所以他們不需要變得更加花哨?!?/p>
避免偏差和模型漂移
當(dāng)AI和ML系統(tǒng)用于企業(yè)安全(例如,用戶行為分析、監(jiān)控網(wǎng)絡(luò)流量或檢查數(shù)據(jù)過濾)時(shí),偏差和模型漂移也會(huì)帶來潛在風(fēng)險(xiǎn)。低估特定攻擊或很快過時(shí)的訓(xùn)練數(shù)據(jù)集會(huì)使組織易受攻擊,尤其是在越來越依賴人工智能進(jìn)行防御的情況下?!澳阈枰粩喔履愕哪P?,”Raff說?!澳阈枰屗蔀橐粋€(gè)連續(xù)的東西。”
在某些情況下,訓(xùn)練可以是自動(dòng)的。例如,使模型適應(yīng)不斷變化的天氣模式或供應(yīng)鏈交付時(shí)間表,可以幫助它隨著時(shí)間的推移而變得更加可靠。當(dāng)信息源涉及惡意參與者時(shí),就需要小心的管理訓(xùn)練數(shù)據(jù)集,以避免中毒和被操縱。
企業(yè)已經(jīng)在處理產(chǎn)生倫理問題的算法了,比如當(dāng)進(jìn)行面部識(shí)別或招聘平臺(tái)歧視女性或少數(shù)民族時(shí)。當(dāng)偏見滲透到算法中時(shí),它也會(huì)產(chǎn)生合規(guī)性的問題,而在自動(dòng)駕駛汽車和醫(yī)療應(yīng)用的情況下,甚至還會(huì)導(dǎo)致人員死亡。
就像算法可以在預(yù)測(cè)中注入偏差一樣,它們也可以用來控制偏差。例如,Othot在幫助大學(xué)實(shí)現(xiàn)優(yōu)化班級(jí)規(guī)?;?qū)崿F(xiàn)財(cái)務(wù)目標(biāo)等。在沒有適當(dāng)約束的情況下創(chuàng)建模型就很容易產(chǎn)生偏見,Othot的Abbatico說?!皩?duì)偏見的核算需要更加勤奮。添加與多樣性相關(guān)的目標(biāo)將有助于建模理解目標(biāo),以及消除偏差,如果不將多樣性目標(biāo)作為約束條件納入數(shù)據(jù)錄取中,這種偏見就很容易被納入。”
AI的未來是陰云密布的
AI和ML系統(tǒng)需要大量的數(shù)據(jù)、復(fù)雜的算法和強(qiáng)大的處理器,以便在需要時(shí)進(jìn)行擴(kuò)展。所有主要的云供應(yīng)商都致力于提供一個(gè)數(shù)據(jù)科學(xué)平臺(tái),將一切都放在一個(gè)方便的地方。這意味著數(shù)據(jù)科學(xué)家將不需要等待IT來為他們提供服務(wù)器。他們只要上網(wǎng),填幾張表格,然后就可以開始做生意了。
根據(jù)德勤的人工智能調(diào)查,93%的企業(yè)正在使用某種形式的云計(jì)算人工智能?!斑@會(huì)讓入門變得更容易,”德勤的Loucks說。這些項(xiàng)目隨后變成了操作系統(tǒng),而隨著規(guī)模的擴(kuò)大,配置問題也成倍增加。有了最新的服務(wù),集中式、自動(dòng)化的配置和安全管理儀表板就可能不再可用,公司必須自己編寫,或者等待供應(yīng)商來填補(bǔ)空白。
當(dāng)使用系統(tǒng)的人是公民數(shù)據(jù)科學(xué)家或理論研究人員時(shí),因?yàn)樗麄儧]有強(qiáng)大的安全背景,就可能會(huì)是一個(gè)問題。此外,供應(yīng)商歷來都是首先會(huì)推出新的功能,其次才是安全性。當(dāng)系統(tǒng)快速被部署,然后更快速地進(jìn)行擴(kuò)展時(shí),就可能是一個(gè)問題。我們已經(jīng)在物聯(lián)網(wǎng)設(shè)備、云存儲(chǔ)和容器上看到了這種情況。
人工智能平臺(tái)供應(yīng)商越來越意識(shí)到了這種威脅,并從錯(cuò)誤中吸取了教訓(xùn),Raff說?!翱紤]到歷史上‘安全第一’的思維方式,我看到包括安全在內(nèi)的計(jì)劃會(huì)比我們預(yù)期的來的更加積極,”他說?!癕L社區(qū)對(duì)此也比較關(guān)注,滯后時(shí)間可能會(huì)更短?!?/p>
德勤的首席人工智能聯(lián)席主管Irfan Saif對(duì)此表示贊同,尤其是在支持大型企業(yè)人工智能工作負(fù)載的主要云平臺(tái)方面?!拔視?huì)說,是的,就網(wǎng)絡(luò)安全能力的發(fā)展而言,它們可能會(huì)比以前的技術(shù)更加成熟?!?/p>
人工智能項(xiàng)目的安全清單
以下清單有助于確保人工智能項(xiàng)目的安全,來自德勤的企業(yè)人工智能現(xiàn)狀第三版:
?保留一個(gè)所有人工智能實(shí)現(xiàn)的正式清單
?將AI風(fēng)險(xiǎn)管理與更廣泛的風(fēng)險(xiǎn)管理努力相結(jié)合
?由一名高管來負(fù)責(zé)人工智能的相關(guān)風(fēng)險(xiǎn)
?進(jìn)行內(nèi)部審計(jì)和測(cè)試
?使用外部供應(yīng)商進(jìn)行獨(dú)立審計(jì)和測(cè)試
?培訓(xùn)從業(yè)人員如何認(rèn)識(shí)和解決人工智能的道德問題
?與外部各方合作,建立領(lǐng)先的人工智能道德規(guī)范
?確保AI供應(yīng)商提供無偏見的系統(tǒng)
?建立政策或董事會(huì)來指導(dǎo)人工智能倫理
責(zé)編AJX
-
安全性
+關(guān)注
關(guān)注
0文章
93瀏覽量
19155 -
AI
+關(guān)注
關(guān)注
87文章
30947瀏覽量
269213 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8420瀏覽量
132685
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論