它們具有看似復(fù)雜的結(jié)果,但也有可能被愚弄,范圍從相對無害-將動物誤識別為另一動物-到引導(dǎo)自動駕駛汽車的網(wǎng)絡(luò)將停車標(biāo)志誤解為指示停車標(biāo)志的潛在危險是可以安全進(jìn)行的。
休斯頓大學(xué)的一位哲學(xué)家在發(fā)表于《自然機(jī)器智能》上的一篇論文中暗示,關(guān)于這些假定故障背后原因的普遍假設(shè)可能是錯誤的,這些信息對于評估這些網(wǎng)絡(luò)的可靠性至關(guān)重要。
隨著機(jī)器學(xué)習(xí)和其他形式的人工智能越來越深入地融入社會,從自動柜員機(jī)到網(wǎng)絡(luò)安全系統(tǒng),其用途廣泛,UH哲學(xué)副教授卡梅倫·巴克納(Cameron Buckner)表示,了解由什么導(dǎo)致的明顯故障的來源至關(guān)重要。
研究人員稱其為“對抗性例子”,是指當(dāng)深度神經(jīng)網(wǎng)絡(luò)系統(tǒng)遇到用于構(gòu)建網(wǎng)絡(luò)的訓(xùn)練輸入之外的信息時,會誤判圖像或其他數(shù)據(jù)。它們很罕見,被稱為“對抗性”,因為它們通常是由另一個機(jī)器學(xué)習(xí)網(wǎng)絡(luò)創(chuàng)建或發(fā)現(xiàn)的-機(jī)器學(xué)習(xí)領(lǐng)域中的一種邊緣技術(shù),介于創(chuàng)建復(fù)雜示例的更復(fù)雜方法與檢測和避免它們的更復(fù)雜方法之間。
巴克納說:“這些對抗性事件中的一些反而可能是人工產(chǎn)物,為了更好地了解這些網(wǎng)絡(luò)的可靠性,我們需要更好地了解它們是什么?!?/p>
換句話說,不發(fā)火可能是由網(wǎng)絡(luò)需要處理的內(nèi)容和所涉及的實際模式之間的相互作用引起的。這與完全被誤解不是完全一樣的。
巴克納寫道:“理解對抗性例子的含義需要探索第三種可能性:至少其中一些模式是人工制品?!薄啊虼耍壳昂唵蔚貋G棄這些模式既有代價,也有天真地使用它們的危險?!?/p>
導(dǎo)致這些機(jī)器學(xué)習(xí)系統(tǒng)犯錯誤的對抗事件不一定是故意的瀆職造成的,但這是最高的風(fēng)險所在。
巴克納說:“這意味著惡意行為者可能欺騙依賴于本來可靠的網(wǎng)絡(luò)的系統(tǒng)?!薄澳怯邪踩珣?yīng)用程序?!?/p>
責(zé)任編輯:lq
-
網(wǎng)絡(luò)安全
+關(guān)注
關(guān)注
10文章
3183瀏覽量
60022 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8434瀏覽量
132868 -
自動駕駛
+關(guān)注
關(guān)注
784文章
13906瀏覽量
166755
發(fā)布評論請先 登錄
相關(guān)推薦
評論