企業(yè)IT和產(chǎn)品IT與標(biāo)準(zhǔn)化軟件的融合降低了惡意行為者的入侵門檻。適用于各種惡意軟件的入門工具包已然面市,最近更是得到了基于大語言模型(LLM),如ChatGPT等AI工具的加持。然而,Vector Consulting和Robo-Test研究認(rèn)為,生成式人工智能也有潛力使現(xiàn)有系統(tǒng)及新系統(tǒng)更加強(qiáng)大和安全。
隨著企業(yè)IT與產(chǎn)品IT的融合,網(wǎng)絡(luò)攻擊及其帶來的影響不斷增加。圖1顯示工業(yè)物聯(lián)網(wǎng)領(lǐng)域受攻擊的增長幾乎呈指數(shù)級的趨勢[1,2]。而且,這些還只是已經(jīng)通報(bào)的影響公共事業(yè)、工廠生產(chǎn)等相關(guān)場景的關(guān)鍵工業(yè)物聯(lián)網(wǎng)攻擊,還有大多數(shù)攻擊沒有被報(bào)告或被認(rèn)為不相關(guān)。
圖 1:針對車輛的主要網(wǎng)絡(luò)安全攻擊
由于多種原因[1,2,3],汽車IT成為黑客的主要目標(biāo):
易于訪問,因?yàn)榭梢暂p松觸及車輛來實(shí)施漏洞發(fā)掘而不被發(fā)現(xiàn)。
勒索軟件和支付帶來潛在好處,因?yàn)楣?yīng)商和OEM擔(dān)心網(wǎng)絡(luò)攻擊成為新聞頭條。
三分之一的公司沒有既定的產(chǎn)品網(wǎng)絡(luò)安全計(jì)劃和專門的安全研發(fā)團(tuán)隊(duì)。
三分之二的公司漏洞測試只涵蓋了不到一半的硬件和軟件。
以前的專有軟件被標(biāo)準(zhǔn)軟件堆棧和工具取代,從而允許使用標(biāo)準(zhǔn)黑客工具和知識,并且增加了攻擊窗口期。
系統(tǒng)和組件具有更多的始終在線、連接性和用于軟件更新的智能應(yīng)用程序編程接口(API),從而允許遠(yuǎn)程執(zhí)行幾乎所有攻擊。
沒有網(wǎng)絡(luò)安全就沒有功能安全。隨著軟件和數(shù)據(jù)被操縱,系統(tǒng)的初始合格、驗(yàn)證或認(rèn)證結(jié)果不再得到保障。隨著網(wǎng)絡(luò)犯罪的激增,整車廠和供應(yīng)商必須提供足夠的保護(hù),防止其企業(yè)和產(chǎn)品IT系統(tǒng)被操縱。
網(wǎng)絡(luò)安全中的人工智能技術(shù)
人工智能(AI)將很快成為打擊網(wǎng)絡(luò)犯罪的主要工具,因?yàn)樗兄诮⒏咝Ш陀行У陌踩こ?。網(wǎng)絡(luò)安全要求很高,需要系統(tǒng)化的流程。傳統(tǒng)方法需要大量的手動工作,例如可追溯性,當(dāng)我們關(guān)注各行業(yè)的不一致性和不合理的測試時(shí),會發(fā)現(xiàn)他們幾乎沒有系統(tǒng)化的部署。用于網(wǎng)絡(luò)安全的人工智能技術(shù)簡化了這些活動[4]。例如,從TARA和安全需求到安全測試的安全工程,在人工智能的輔助下實(shí)現(xiàn)了更好的一致性,進(jìn)而有助于生成、驗(yàn)證和關(guān)聯(lián)必要的工作產(chǎn)品。
為了有效減輕網(wǎng)絡(luò)安全風(fēng)險(xiǎn),在安全生命周期內(nèi)必須落實(shí)安全目標(biāo)并使其在工作產(chǎn)品之間保持一致??勺匪菪杂兄诒3忠恢滦圆⒔档拓?zé)任風(fēng)險(xiǎn)。如果添加了新的需求,我們必須找出哪些設(shè)計(jì)部分需要修改或者哪些測試需要變更并重新運(yùn)行。為此,三重峰模型將需求、設(shè)計(jì)和測試系統(tǒng)地聯(lián)系起來[3]。
在此方法論基礎(chǔ)上,生成式人工智能(GenAI)可以針對您提出的問題合成或生成對應(yīng)的答案。自然語言處理(NLP),尤其是Transformer,為半自動安全分析、可追溯性和測試提供了新方法。特別是使用大語言模型(LLM)進(jìn)行文本生成、匯總和分類,最近被證明有望提高安全分析和測試的效率和有效性[4]。雖然許多人已經(jīng)嘗試過基于直接輸入問題的人機(jī)界面,但這個(gè)場景可以進(jìn)一步自動化,從而將此類工具無縫集成到生產(chǎn)工具鏈中。
為了評估哪種基于人工智能的輔助將為網(wǎng)絡(luò)安全帶來最大收益,讓我們看看整個(gè)產(chǎn)品生命周期。圖2將安全生命周期顯示為獨(dú)立于底層開發(fā)方法的V模型抽象。灰色框描述了模型中各活動的抽象,藍(lán)色框顯示了我們識別到的一些基于人工智能的方法,這些方法可以支持網(wǎng)絡(luò)安全開發(fā)過程中的相關(guān)環(huán)節(jié)。
圖 2:安全工程中的人工智能和底層工具鏈
將生成式人工智能用于安全工程
為了將生成式人工智能實(shí)際應(yīng)用于網(wǎng)絡(luò)安全工程,我們開發(fā)了Transformers和基于生成式人工智能的方法,用于網(wǎng)絡(luò)安全需求的規(guī)范化和測試驗(yàn)證。我們在下述行業(yè)案例研究中的重點(diǎn)是使用生成式人工智能和NLP將行業(yè)需求與法規(guī)要求聯(lián)系起來。
在實(shí)踐中,我們使用帶有網(wǎng)絡(luò)安全語料庫的定制化大語言模型作為基本模型。在評估哪種大語言模型最適合作為基準(zhǔn)點(diǎn)時(shí),我們測試了他們在令牌預(yù)測方面的能力,尤其是與安全相關(guān)的文本。為了進(jìn)一步提高模型的適配度,我們使用CAPEC(常見攻擊模式枚舉和分類)、CVE(通用漏洞披露)和NVD(美國國家漏洞數(shù)據(jù)庫)等數(shù)據(jù)庫對模型進(jìn)行了微調(diào),同時(shí)也使用了經(jīng)過驗(yàn)證的網(wǎng)絡(luò)安全論壇和博客的內(nèi)容。該語料庫不包含客戶及專利數(shù)據(jù),而且它會隨著外部數(shù)據(jù)源的變化而不斷增長。圖3 顯示了語料庫最初的數(shù)據(jù)分布,這種分布既不是來源于現(xiàn)成的方案,也不是行業(yè)或標(biāo)準(zhǔn)既定的方法,而是基于Vector Consulting Services過往15年的安全分析經(jīng)驗(yàn)。
在運(yùn)行時(shí),使用具有特定關(guān)聯(lián)的敏感數(shù)據(jù)對模型進(jìn)行投喂。為了保護(hù)軟件免遭濫用和漏洞挖掘,它不會被存儲,當(dāng)然也不會脫離我們本地化的大語言模型引擎。例如,關(guān)聯(lián)信息可以是為不同系統(tǒng)創(chuàng)建的TARA。這將有利于促進(jìn)重用先前創(chuàng)建的TARA,并且進(jìn)一步提高效率,TARA的某些部分通??梢灾貜?fù)使用,因?yàn)楫a(chǎn)品設(shè)計(jì)中使用了相同或非常相似的組件。這種使用本地化數(shù)據(jù)的雙重方法會消耗大量內(nèi)存、功耗和性能,但可以確保非常高的機(jī)密性。
圖 3:帶有網(wǎng)絡(luò)安全語料庫的定制化大語言模型
市場和產(chǎn)品需求通常存儲在應(yīng)用程序或產(chǎn)品生命周期管理(ALM/PLM)數(shù)據(jù)庫中,可以使用ReqIF或Excel將它們導(dǎo)出到我們的大語言模型中。圖4顯示了在將結(jié)果轉(zhuǎn)移到專門的TARA工具之前,我們的大語言模型導(dǎo)出界面上的此類結(jié)果。根據(jù)此導(dǎo)出結(jié)果和其他關(guān)聯(lián)信息(例如基于啟發(fā)式的威脅目錄),AI會生成針對條目、威脅和攻擊路徑的建議。
隨后,生成的建議將加載到Vector COMPASS TARA工具中。緊接著,安全工程師將對其質(zhì)量和準(zhǔn)確性進(jìn)行評估和評級。工程師還會決定GenAI工具給出的哪些建議將保留在TARA中,以及哪些應(yīng)該被替換或刪除。如果TARA是完整的,則將數(shù)據(jù)存儲到白盒信息數(shù)據(jù)庫中。該白盒數(shù)據(jù)庫包含所有內(nèi)部可用信息,稍后可用于執(zhí)行白盒滲透測試。與此相反,灰盒數(shù)據(jù)庫僅包含公開可用的數(shù)據(jù)和常見的攻擊模式,他們將在灰盒滲透測試時(shí)被使用。根據(jù)需要執(zhí)行的滲透測試類型,下一階段的人工智能將使用兩個(gè)或一個(gè)數(shù)據(jù)庫來建議攻擊或滲透策略。此策略信息用于對待測系統(tǒng)(SUT)進(jìn)行攻擊,該攻擊通過使用CANoe測試環(huán)境或類似的集成測試框架來實(shí)現(xiàn)。
使用AI生成灰盒與白盒攻擊路徑是一種檢查方法,它可以查明有多少可用的與系統(tǒng)或組件相關(guān)的信息(例如SUT中使用的庫和依賴項(xiàng))。將這些方法引入安全生命周期后,將有助于更好地對工具進(jìn)行集成,以及實(shí)現(xiàn)敏捷交付流程中應(yīng)對變更的快速部署,進(jìn)而實(shí)現(xiàn)從TARA到安全需求和(回歸)測試用例的一致性。
圖 4:集成到開放的TARA接口
結(jié)論
關(guān)于網(wǎng)絡(luò)安全領(lǐng)域應(yīng)用人工智能的一個(gè)提醒,請注意隱私和安全影響:
人工智能本身可能會成為風(fēng)險(xiǎn),因?yàn)樗梢愿幕蛱砑哟a。
人工智能可能會威脅您的知識產(chǎn)權(quán),因?yàn)榇蠖鄶?shù)模型都試圖捕獲您的數(shù)據(jù)。
許多人工智能工具,例如代碼生成和分析工具,通常會將數(shù)據(jù)反饋給工具供應(yīng)商,從而嚴(yán)重影響知識產(chǎn)權(quán)和隱私。
您的專利代碼必須受到良好的保護(hù),并且確保其不會離開您的私人數(shù)據(jù)庫。因此,我們建議您建立自己的大語言模型,并針對您的特定應(yīng)用領(lǐng)域?qū)ζ溥M(jìn)行訓(xùn)練。同時(shí),避免使用GenAI建議的代碼或代碼片段。我們已經(jīng)檢測到生成式AI工具和平臺在處理代碼時(shí)會插入不需要的代碼片段。此類片段可能看起來無風(fēng)險(xiǎn),但存在引入后門、操縱數(shù)據(jù)或向外部目標(biāo)提供信息的風(fēng)險(xiǎn),例如庫調(diào)用和外部接口(例如 REST API)。如果您想重用代碼或嵌入生成的片段,請對所有外部代碼運(yùn)行徹底的靜態(tài)分析以識別潛在的漏洞。
作者信息
Christof Ebert
Vector Consulting Services總經(jīng)理,
德國斯圖加特大學(xué)教授。
Maximilian Beck
德國斯圖加特大學(xué)Robo-Test孵化器的人工智能企業(yè)家。
-
IT
+關(guān)注
關(guān)注
2文章
864瀏覽量
63514 -
網(wǎng)絡(luò)安全
+關(guān)注
關(guān)注
10文章
3159瀏覽量
59752 -
人工智能
+關(guān)注
關(guān)注
1791文章
47274瀏覽量
238467
原文標(biāo)題:面向汽車網(wǎng)絡(luò)安全的生成式人工智能
文章出處:【微信號:VectorChina,微信公眾號:Vector維克多】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論