當(dāng)人工智出現(xiàn)時(shí),人們對它懷有巨大的期望,
最初的夢想不過是碗筷不用自己洗、家務(wù)不用自己做,
甚至可以讓其幫忙寫作業(yè)。
人工智能頓時(shí)成為了人們的夢想完成機(jī),
然而,人們常為夢想而斗爭,往往噩夢經(jīng)常破壞好夢,
這便是夢想照進(jìn)現(xiàn)實(shí)的真實(shí)寫照。
逐漸地,人們在人工智能上的噩夢呈現(xiàn)了出來,
就在這幾天,它離我們的生活越來越近,
那些不安的夢想被影射到了人工智能上,那便是——
戰(zhàn)爭。
澳大利亞開啟智能軍火大門
“功夫再高,也怕菜刀”,
這是人們心知肚明的常識,
即便“菜刀”是維護(hù)世界和平的中堅(jiān)力量。
但倘若人工智能扛起了菜刀,
人類還能撐多久呢?
一向看起來熱愛和平從不惹事的澳大利亞,
最近,開始搞事情了…
Dailymail:澳大利亞國防軍投資900萬美元用于研究“殺手機(jī)器人”。為確保人工智能武器具有道德標(biāo)準(zhǔn),它不會對兒童開火。
就在剛剛,《DailyMail(每日郵報(bào))》揭露了澳洲一項(xiàng)“蓄謀已久”的投資研究,
這個(gè)被海水圍繞的溫暖島國,
終于展示出了自己的野心。
據(jù)報(bào)道,
澳大利亞軍方及國防部正在投資900萬美元用于
研究機(jī)器人武器及道德系統(tǒng)。
圖片:一架無人機(jī)在美國接受測試
這項(xiàng)計(jì)劃為期六年的項(xiàng)目,
就在2月28日(昨天)與昆士蘭大學(xué)和新南威爾士大學(xué)開始,
無人駕駛飛機(jī)和自動炮等自主武器是這次研究的重點(diǎn),
另外,澳洲方面表示,
會在武器上安排“道德底線”,
使武器不會攻擊兒童。
是的,據(jù)澳洲方面的意思,機(jī)器人會有自己的思想且
”僅僅“不會攻擊兒童。
圖片來源:網(wǎng)絡(luò)
人工智能軍備已在澳洲打響第一槍,
許多人心知肚明,這一個(gè)”武器盲區(qū)“一旦被打開后,
隨之而來的,是源源不斷的效仿與更深入的研究。
誰也不能肯定,在人工智能武器真正成熟的那一天,
人類自己將會遭遇怎樣的命運(yùn)。
無人機(jī)掛炮模型
人工智能+“菜刀”究竟能恐怖到什么地步呢?
我們來看一次專為人工智能打造的軍火演習(xí)。
據(jù)新南威爾士大學(xué)的首席研究員Jai Galliott博士表示,
本次澳洲投入大手筆研究人工智能軍火,
主要是效仿俄羅斯的軍火裝備。
此前研究出的人工智能“殺人武器”
而此前,俄羅斯軍方便針對人工智能軍火進(jìn)行了一次實(shí)戰(zhàn)演習(xí),
它的威力,甚至讓久經(jīng)風(fēng)霜的老兵都嘆為觀止…
首先出場的,是一臺人工智能炮車。
人們在之前輸入了程序,好讓智能炮車能完美找到堡壘的爆破突破口,
好完成一擊必殺。
智能炮車的表現(xiàn)非常搶眼,
“一桿進(jìn)洞”,非但精準(zhǔn)地找到了突破口,還完美地控制了發(fā)射距離,
堅(jiān)實(shí)的堡壘在它的面前顯得不堪一擊。
接下來看看真正的“全自動”機(jī)槍,
它在本次演習(xí)中的角色是“清道夫”,
負(fù)責(zé)殲滅堡壘中的所有敵人。
人工智能機(jī)槍
找準(zhǔn)敵人走位、精確射擊范圍、控制射擊距離,
都是它需要”考慮“的重點(diǎn)。
而讓人毛骨悚然的是,
如果站在堡壘內(nèi)的是人類部隊(duì),
那么,這將是一次徹頭徹尾的慘敗。
即便在高空,人工智能對移動目標(biāo)的定位也令人稱絕,
它可以死死鎖定住目標(biāo),一分一毫都不放過,
當(dāng)你進(jìn)入它的捕捉范圍后,
便插翅難逃。
再來看看“智能陸戰(zhàn)隊(duì)”的表現(xiàn),
顯示在夜視鏡中鎖定了敵方目標(biāo),
在敵人毫無察覺的情況下,
一擊必殺!
Dailymail表示,
目前對自主智能武器的呼吁方向并不樂觀,
聯(lián)合國呼吁禁止自主智能武器,
擔(dān)心在不久的將來,它們會導(dǎo)致大規(guī)模殺傷,
并可能被恐怖分子所利用。
然而,對于這些憂慮,
新南威爾士大學(xué)的首席研究員Jai Galliott博士明顯不這么認(rèn)為,
他居然告訴我們,
上面那些隨時(shí)可以要你命的玩意,
是為了“保護(hù)”,而不是“傷害”。
專家:智能軍火不會失控
首先,我們需要明確一個(gè)名詞——
機(jī)器人武器革命。
什么是機(jī)器人武器革命呢?
它又被稱為熱武器第三次革命,
這意味著人工智能能夠在沒有人類輸入指令的情況下,
自主選擇和攻擊目標(biāo)并實(shí)施擊殺。
這意味著什么呢?
這意味著如果它突然有了個(gè)性,直視無辜人群為“不爽”,
災(zāi)難就降臨了。
然而,據(jù)Jai Galliott博士表示,
他們研究智能軍火的目的是讓軍火更加“完美”,
而并非有目的的“傷害”,
人工智能,將在最大范圍內(nèi)被控制,
不會失控。
圖:美國軍艦USS Idaho上的槍支
澳大利亞海軍也已經(jīng)在驅(qū)逐艦上使用自動武器和槍支,自動探測敵人和火力。
Jai Galliott博士表示,他最擔(dān)心的是人們的“負(fù)面炒作”,
此次新南威爾士大學(xué)和昆士蘭大學(xué)“聯(lián)名”的智能軍火,
其實(shí)是“挽救生命的技術(shù)”。
WTF?你管這種保不齊向自己人開火的炮管叫“挽救生命的技術(shù)”?
圖片:俄羅斯人工智能導(dǎo)彈
Galliott說,
“有些人害怕智能武器,因?yàn)樗麄冊O(shè)想了在城市環(huán)境中部署機(jī)器人的終結(jié)者類型的場景,但事實(shí)遠(yuǎn)非如此?!?/strong>
他表示,
實(shí)際上,我們目前所見到的智能系統(tǒng),比如無人機(jī)和自動槍械,
都是在非常有限的情況下才會采取行動,
他們目前對人們而言,是安全的。
“他們沒有部署在城市地區(qū),決定何時(shí)何地殺人?!?/strong>
但正如圖片中所示,若人工智能真的成熟起來,
他們也是有自己的輪子的,
人們應(yīng)該害怕它們會“離家出走”。
對于智能武器的“道德倫理”問題,
Galliott則表示,研究人員已經(jīng)對它們進(jìn)行了一系列教育,
保證把它們訓(xùn)練地比寵物還乖…
此次研究中,智能武器將會被冠以人類士兵們的“思想”,
遵循人類士兵面對開火的道德決策,
采取人類可能采取的行動。
譬如,
當(dāng)它識別出“紅十字”標(biāo)志時(shí)便不會發(fā)動攻擊,
確保自己不會誤傷醫(yī)院和紅十字會。
同時(shí),也包括不會傷害兒童、老人和無辜的人民。
正因如此,Galliot博士說,
這次研究智能軍火的目的是盡可能拯救無辜的生命,
用人工智能機(jī)器人來避免
不必要的事故和死亡。
這波論述我是服的,
不得不說這是一波教科書版的“避重就輕”的操作。
據(jù)報(bào)道,
五年來,Galliot博士一直在說服聯(lián)邦政府為智能武器提供資金,
而今年,他終于圓夢,
得到了政府900萬美元資助研究武器系統(tǒng)。
Galliot博士認(rèn)為這是西方“機(jī)器人道德系統(tǒng)”設(shè)計(jì)中投入最多的一次,
這個(gè)為期六年的設(shè)計(jì)項(xiàng)目將花費(fèi)國防部供7.3億美元的資金,
用于開發(fā)未來的智能,空間和自動化技術(shù)。
目前,不止是澳大利亞,全世界似乎都在利用人工智能技術(shù)制造“殺人武器”,
就在去年8月,
委內(nèi)瑞拉總統(tǒng)馬杜羅就曾在人工智能武器下死里逃生,
這一幕至今讓人冷汗直流。
“你所創(chuàng)造的最終將殺死你”
2018年8月,
委內(nèi)瑞拉總統(tǒng)馬杜羅在某會場進(jìn)行演講之時(shí),
一架載著C4炸藥無人機(jī)掩人耳目地潛入會場,
并引發(fā)了令人驚恐的爆炸。
現(xiàn)場的人們,包括后排的人類軍隊(duì)都倉皇而逃,
現(xiàn)場似乎還發(fā)現(xiàn)了兩只落單的鞋子。
這架小型的無人飛機(jī)刺客讓人不得不聯(lián)想起
在2017年11月份日內(nèi)瓦舉辦的聯(lián)合國特定常規(guī)武器公約會議上,
那架將子彈精準(zhǔn)攝入模特“頭骨”中的
“蜜蜂殺手”。
這架無人飛機(jī)傳說是由資深AI研究者Stuart Russell研發(fā)的,
同時(shí),他還在Youtube公開了一段“成果展”。
視頻中,多架殺人飛機(jī)潛入了一所大學(xué)的課堂,
將在座的師生殺了個(gè)片甲不留。
在11月份的會議上,
他親自將這個(gè)“小玩意”帶至現(xiàn)場,
向人們展示人工智能武器的威力。
它的大小宛如一只馬蜂,
但是,在它嬌小的體內(nèi),卻暗藏著一款新型人工智能處理器,
它的處理速度是人腦的100倍,
甚至可以毫無壓力地躲避人類的各種追蹤。
在它的身上,裝有廣角攝像頭、傳感器、面部識別,應(yīng)有盡有。
只要把目標(biāo)圖像信息輸入它身上,它就能精準(zhǔn)找到攻擊目標(biāo),
比iphone臉部識別還準(zhǔn)!
戴口罩、偽裝統(tǒng)統(tǒng)沒用,它的識別率高達(dá)99.99!
每一款這種“殺人機(jī)器人”上都配有3克濃縮炸藥,
在鎖定目標(biāo)之后,它會直沖向人類的大腦,巨大的破壞力足 以讓人的大腦整個(gè)被摧毀,
沒有一絲剩余…
而且它還能穿透建筑物、汽車、火車,躲避人類子彈,
應(yīng)對幾乎所有防御手段。
在實(shí)驗(yàn)?zāi)L仡^部被精準(zhǔn)擊中的那一刻,
人們鴉雀無聲,說不清心中升起的究竟是震驚還是恐懼,
要知道,
這種殺人機(jī)器都是成群出沒的,有如一個(gè)殺人蜂群,全體出動、鎖定目標(biāo)、殺死目標(biāo)…
試想,如果人工智能殺手這種技術(shù)一旦廣泛運(yùn)用,就會把戰(zhàn)爭沖突升級至前所未有的規(guī)模,
而且人類將很難控制住局面。
試想,
如果有科學(xué)家因?yàn)樗叫脑诖a里面加了一行毀滅人類的指令,
或者人工智能突然變異成反人類的品種,整個(gè)人類或?qū)⒈粰C(jī)器人橫掃,
甚至滅亡!
正因如此,澳大利亞此次所研發(fā)“人工智能武器”的爭議性
毫不亞于之前的”轉(zhuǎn)基因嬰兒“,
許多國際大型科技企業(yè)也表示,
自己不會觸碰人工智能武器的雷池,
從而堅(jiān)守人工智能的底線。
人工智能武器研發(fā)引業(yè)界爭論
據(jù)《環(huán)球時(shí)報(bào)》報(bào)道,
人工智能武器已經(jīng)成為人工智能領(lǐng)域最具爭議性的話題。
據(jù)報(bào)道,
近日以馬斯克和DeepMind的三位聯(lián)合創(chuàng)始人為首的科技界高層組成的聯(lián)盟
近期簽署了一份承諾書,
內(nèi)容是他們所屬的公司在未來將不會研發(fā)擁有AI的智能武器。
簽署者主要擔(dān)心若開發(fā)致命型的殺人武器,會對人類產(chǎn)生威脅,
因此互相共同承諾既不參與創(chuàng)造,
也不支持致命性自主武器技術(shù)的開發(fā)。
此前韓國軍用AI展示
承諾中警告:在人類使用人工智能武器“選擇和接觸”目標(biāo)時(shí),
如果決定射擊目標(biāo)前沒有人為干預(yù),那么最終結(jié)果將會導(dǎo)致道德淪喪,
更嚴(yán)重的結(jié)果將會對現(xiàn)實(shí)生活產(chǎn)生危害。
“從道義上講,不應(yīng)該把結(jié)束人類生命的決定委托給機(jī)器。而實(shí)際來看,如果此類武器在未來得到擴(kuò)散,那么最終的結(jié)果將危及每個(gè)國家甚至牽連到每個(gè)人的生命安全”。
這是所有簽署人對人工智能的懼怕。
有專家表示,如果研發(fā)成功,自主武器會加速戰(zhàn)爭開打,規(guī)模也會比過去更大,
成為恐攻武器。
麻省理工學(xué)院物理學(xué)教授泰格馬克在一份聲明中說,
“AI武器就像生化武器一樣令人厭惡和讓人感到不安,AI武器應(yīng)該像對待生化武器一樣處理。”
他認(rèn)為,人命不應(yīng)該交由機(jī)器決定,同時(shí)呼吁各國政府和領(lǐng)導(dǎo)人,
應(yīng)建立國際法規(guī)予以控管。
然而,據(jù)《環(huán)球時(shí)報(bào)》報(bào)道,
現(xiàn)在已經(jīng)沒有了足夠的“能力”來推動國際間的自動化武器管制,
也沒有任何一個(gè)西方國家的核心集團(tuán)愿意參與進(jìn)來,
故“國際法律予以控管”的影響力微乎其微,
人類目前無法約束人工智能武器的大力發(fā)展。
在戰(zhàn)場上早期采用類似于AI的策略,投入此類技術(shù)的國家數(shù)量之多,
以及展示其潛力的現(xiàn)有武器系統(tǒng),所有這些似乎都表明人工智能武器將是
非常有效的戰(zhàn)爭工具。
目前,澳洲也斥資巨款用于研究人工智能武器的侵略性和道德性,
可能在5~6年后,
屬于澳洲的人工智能武器
也將在人們的不安中誕生。
如今,對于人工智能的不安從“就業(yè)”過渡到了“武器”,
人工智能從“搶飯碗”過渡到了“要命”,
人類將怎樣把控這個(gè)被人類自己設(shè)計(jì)出來的“福音”呢?
在法律還尚未完備的階段,
只有依靠道德、判斷力和自我制約了。
-
機(jī)器人
+關(guān)注
關(guān)注
211文章
28466瀏覽量
207327 -
AI
+關(guān)注
關(guān)注
87文章
30998瀏覽量
269303
原文標(biāo)題:澳洲宣布砸9千萬,發(fā)明AI“殺人”機(jī)器,全世界為之驚恐
文章出處:【微信號:tjrobot,微信公眾號:天津機(jī)器人】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論