2014年7月17日,紐約市斯塔頓島的一條人行道上,一群警察走近43歲的埃里克?加納(Eric Garner),準(zhǔn)備逮捕他,理由是他涉嫌非法售賣煙草。當(dāng)加納試圖掙脫時(shí),一名警官用胳膊鎖住他的脖子,將其臉朝下按倒在地上。加納患有哮喘和心臟病,他苦苦哀求“我不能呼吸了”,隨后便失去了知覺(jué)。在送至醫(yī)院一小時(shí)后,他被宣布死亡。不久之后,法醫(yī)判定加納死于他殺。
這起悲劇引起了全美范圍的關(guān)注。一份手機(jī)視頻詳細(xì)記錄了加納被警方過(guò)度暴力執(zhí)法的全過(guò)程,其中的細(xì)節(jié)令人震驚。加納的死以及警察曾經(jīng)暴力射殺手無(wú)寸鐵的黑人公民的事件,激起了全美范圍的強(qiáng)烈抗議。
此后,美國(guó)和其他地區(qū)的改革派政客開(kāi)始主張警察佩戴執(zhí)法記錄儀,以督促警察對(duì)自己的行為負(fù)責(zé)。另一方面,警察們也樂(lè)于佩戴執(zhí)法記錄儀,這有利于警察在面臨錯(cuò)誤指控時(shí)洗脫嫌疑。
執(zhí)法記錄儀的主要生產(chǎn)商是Axon Enterprise,人們更熟悉它的原名泰瑟國(guó)際(Taser International)及其招牌產(chǎn)品——泰瑟電擊槍。2015年,當(dāng)時(shí)的泰瑟國(guó)際敏銳地捕捉到了執(zhí)法記錄儀產(chǎn)品的巨大市場(chǎng),專門成立了一個(gè)部門銷售警用Axon執(zhí)法記錄儀。去年,公司正式更名為Axon,標(biāo)志著公司的業(yè)務(wù)重心轉(zhuǎn)向警方記錄及證據(jù)的收集和管理。執(zhí)法記錄儀的視頻則是重中之重。
目前,Axon公司不僅為警察局提供免費(fèi)的執(zhí)法記錄儀,而且警察局可在一年之內(nèi)免費(fèi)使用其網(wǎng)站Evidence.com的數(shù)據(jù)存儲(chǔ)服務(wù)。公司此舉旨在營(yíng)造一個(gè)長(zhǎng)久、穩(wěn)定的盈利模式。
毫無(wú)疑問(wèn),Axon公司將業(yè)務(wù)從電擊槍轉(zhuǎn)向執(zhí)法記錄儀的舉措將引起投資者的興趣,但吸引我們的并不是這種新的商業(yè)模式。本文的兩位作者都是技術(shù)人員:Greene,美國(guó)馬里蘭大學(xué)信息學(xué)院教授,研究科技對(duì)人類社會(huì)的影響;Patterson,計(jì)算機(jī)視覺(jué)專家,在位于紐約市的初創(chuàng)公司Trash擔(dān)任首席科學(xué)家。Axon公司宣稱,公司的目標(biāo)是建立一個(gè)預(yù)期能夠處理、標(biāo)記和解讀海量執(zhí)法記錄儀視頻資料的人工智能系統(tǒng)。我們對(duì)這一策略是否合理和明智深感擔(dān)憂。
根據(jù)Axon公司的聲明,他們將使用現(xiàn)有的執(zhí)法記錄儀視頻資料對(duì)人工智能系統(tǒng)進(jìn)行訓(xùn)練,目前共收集到20萬(wàn)名警官提供的30拍字節(jié)(petabyte)的視頻資料。系統(tǒng)將對(duì)視頻資料進(jìn)行編輯,以保護(hù)個(gè)人隱私,并將視頻記錄的事件轉(zhuǎn)換為文字記錄,生成警方報(bào)告,這種自動(dòng)化的工具有利于警察擠出更多的時(shí)間執(zhí)行更重要的任務(wù)。此外,公司還將建立一個(gè)可檢索的警察與公眾互動(dòng)數(shù)據(jù)庫(kù)。Axon公司已經(jīng)為實(shí)時(shí)人臉識(shí)別技術(shù)申請(qǐng)了專利,競(jìng)爭(zhēng)對(duì)手也在積極開(kāi)發(fā)這一技術(shù),用于執(zhí)法記錄儀。
大約兩年前,Axon公司的創(chuàng)始人兼首席執(zhí)行官里克?史密斯(Rick Smith)在一次公司投資者收益電話會(huì)議上表示,公司將在2018年推出人工智能輔助視頻系統(tǒng),但至今,Axon公司的Evidence.com產(chǎn)品依然表現(xiàn)平平。它能自動(dòng)模糊或遮擋人臉,或編輯個(gè)人身份信息(要先標(biāo)記出哪些人或物體需要被遮蔽),或根據(jù)警方調(diào)度系統(tǒng)的信息對(duì)視頻進(jìn)行標(biāo)記,如案件的編號(hào)、地址以及類型等。這與Axon公司銷售辭令中描述的目標(biāo)相去甚遠(yuǎn)。比如,史密斯在2018年6月的Axon公司工作促進(jìn)會(huì)議上說(shuō)過(guò):“終有一天,我們能夠通過(guò)人工智能處理便攜式和車載式執(zhí)法記錄儀視頻,并生成警員可進(jìn)行編輯和調(diào)查的報(bào)告初稿?!?/p>
不可否認(rèn),按照?qǐng)?zhí)法記錄儀視頻中的人物、事件和地點(diǎn)進(jìn)行自動(dòng)分類,進(jìn)而減輕人們繁冗的文書(shū)工作,這確實(shí)是一個(gè)有吸引力的想法。但是,我們和其他外部觀察者都擔(dān)心這其中存在著潛在危險(xiǎn)。Axon公司計(jì)劃使用的大部分人工智能技術(shù)尚不成熟。即便這些技術(shù)已經(jīng)成熟,由于無(wú)法對(duì)Axon公司的私有軟件進(jìn)行獨(dú)立審查,也無(wú)法判定技術(shù)的確不存在偏差和其他令人擔(dān)憂的問(wèn)題。
由于這些原因,機(jī)器學(xué)習(xí)在執(zhí)法記錄儀視頻分類中的應(yīng)用已經(jīng)成為一個(gè)導(dǎo)火索,引起了對(duì)“私有軟件是否可以并入刑事司法系統(tǒng)”這一更廣義問(wèn)題的爭(zhēng)論。我們?cè)诖藢⒈硎鑫覀兊膿?dān)憂,并對(duì)如何管理這一即將出現(xiàn)的新技術(shù)提出建議,不管你是否喜歡這項(xiàng)技術(shù)。
━━━━
在Axon公司的視頻管理系統(tǒng)中,至少有一項(xiàng)功能是可行且有益的,這就是將執(zhí)法記錄儀視頻中的人臉進(jìn)行模糊處理。如果視頻被公開(kāi),視頻中的人不會(huì)被他人認(rèn)出來(lái)。Axon公司的人工智能和機(jī)器學(xué)習(xí)主管莫吉塔巴?索爾吉(Mojtaba Solgi)說(shuō),他和他的團(tuán)隊(duì)還在研究如何將視頻中的聲音進(jìn)行自動(dòng)轉(zhuǎn)錄。人們普遍希望這些簡(jiǎn)單而繁冗的任務(wù)能夠?qū)崿F(xiàn)自動(dòng)化,我們對(duì)此沒(méi)有異議。
然而,用機(jī)器審查和分類視頻腳本中所發(fā)生的事情是一項(xiàng)非常困難的任務(wù)。誠(chéng)然,一些簡(jiǎn)單的圖像很容易被識(shí)別,今天的計(jì)算機(jī)技術(shù)能準(zhǔn)確無(wú)誤地將狗和飛機(jī)或樹(shù)區(qū)分開(kāi)。但是,即便是目前最好的人工智能技術(shù),也無(wú)法像專業(yè)人士那樣準(zhǔn)確地區(qū)分影像或場(chǎng)景中的復(fù)雜或細(xì)微差別。盡管近年來(lái)研究人員已經(jīng)取得一些重大進(jìn)展,但若要解釋復(fù)雜圖像或視頻片段中的事件,即便是最先進(jìn)的人工智能系統(tǒng),也仍然處于相對(duì)原始的階段。
加州大學(xué)伯克利分校的吉滕德拉?馬立克(Jitendra Malik)以及其他11位機(jī)器學(xué)習(xí)專家近期發(fā)表了一項(xiàng)研究成果。在這項(xiàng)研究中,他們使用了一份帶有詳細(xì)注釋的新型視頻數(shù)據(jù)集來(lái)測(cè)試一款最前沿的深度學(xué)習(xí)系統(tǒng)。深度學(xué)習(xí)涉及人工神經(jīng)網(wǎng)絡(luò)的應(yīng)用,人工神經(jīng)網(wǎng)絡(luò)即仿照人腦中神經(jīng)元網(wǎng)絡(luò)構(gòu)建的計(jì)算機(jī)程序。
馬立克和他的同事們打算訓(xùn)練一個(gè)網(wǎng)絡(luò),識(shí)別視頻資料中出現(xiàn)頻率較高的行為。為此,他們結(jié)合了兩個(gè)流行的神經(jīng)網(wǎng)絡(luò)的特點(diǎn),這兩個(gè)神經(jīng)網(wǎng)絡(luò)分別是13D和Faster-RCNN,前者的前身是廣泛使用的Inception Network。這一網(wǎng)絡(luò)要識(shí)別的動(dòng)作很簡(jiǎn)單:站姿、坐姿、行走、跳躍、進(jìn)食、睡覺(jué)、閱讀、說(shuō)話、抽煙、騎車或攜帶物品等,共計(jì)80種動(dòng)作。更為復(fù)雜的動(dòng)作(比如入店行竊或鎖喉)沒(méi)有涉及。視頻資料來(lái)自電影或電視節(jié)目,這些視頻動(dòng)作清晰,光線充足,拍攝角度合理。
即便如此,這款深度學(xué)習(xí)系統(tǒng)在新視頻資料集中的測(cè)試還是經(jīng)常出錯(cuò)。以動(dòng)作識(shí)別為例,當(dāng)人把手機(jī)貼近耳朵時(shí),系統(tǒng)誤認(rèn)為是在抽煙。作者這樣描述這種低級(jí)錯(cuò)誤:“它在識(shí)別一些微小細(xì)節(jié)時(shí)很吃力?!边@么說(shuō),一個(gè)人是在掏錢包還是掏槍也是一種“微小細(xì)節(jié)”,當(dāng)今最先進(jìn)的人工智能視頻分析技術(shù)也很容易誤解。
我們估計(jì),即便是Axon公司相對(duì)保守的系統(tǒng)計(jì)劃也很難跳出實(shí)驗(yàn)室,直接應(yīng)用于實(shí)際警務(wù)工作。比如,Axon公司宣稱,對(duì)視頻中的某人進(jìn)行標(biāo)記后,它們的系統(tǒng)就能夠在視頻的多個(gè)幀里面對(duì)其進(jìn)行追蹤鎖定。
世界上最尖端的計(jì)算機(jī)視覺(jué)系統(tǒng)的確能實(shí)現(xiàn)這種目標(biāo)追蹤,但研究文獻(xiàn)中成功追蹤的案例使用的都是高品質(zhì)的視頻資料,并且視頻里的人都在相對(duì)簡(jiǎn)單的環(huán)境中移動(dòng)。到目前為止,還沒(méi)有用移動(dòng)攝像頭在光線不足、視野不穩(wěn)的視頻中成功追蹤目標(biāo)的先例。
━━━━
無(wú)論在哪個(gè)領(lǐng)域,自動(dòng)化視頻解讀都是一個(gè)棘手的問(wèn)題。警務(wù)工作對(duì)這方面的要求非常高,一旦人工智能系統(tǒng)出錯(cuò),后果可能極其嚴(yán)重,而且這些錯(cuò)誤可能經(jīng)常發(fā)生且難以察覺(jué)。
例如,如果自動(dòng)影像分類系統(tǒng)的功能是從混亂、不完整或有偏差的數(shù)據(jù)中學(xué)習(xí)得到的,也會(huì)出現(xiàn)問(wèn)題。一個(gè)有名的例子是,2015年黑人程序設(shè)計(jì)員杰克?阿爾辛(Jacky Alciné)發(fā)現(xiàn),谷歌的照片App采用機(jī)器學(xué)習(xí)方法對(duì)內(nèi)容進(jìn)行分類,將他與一位黑人朋友的合照歸類為“猩猩”。
人工智能專家可以通過(guò)徹底篩查和系統(tǒng)迭代更新來(lái)修正這類問(wèn)題。加州理工學(xué)院和加州大學(xué)圣地亞哥分校的人工智能研究者們?cè)陂_(kāi)發(fā)美靈鳥(niǎo)類識(shí)別(Merlin Bird ID)App時(shí)就采取了這種方法。他們收集了數(shù)量龐大的鳥(niǎo)類照片,然后將鳥(niǎo)類分類的工作分包給眾人。然后利用這些結(jié)果訓(xùn)練第一代物種分類人工智能,但分類器的性能很差。
為了弄清楚原因,計(jì)算機(jī)科學(xué)家們聯(lián)系了康奈爾大學(xué)鳥(niǎo)類實(shí)驗(yàn)室的專家。鳥(niǎo)類專家立即發(fā)現(xiàn),因?yàn)楸姲藛T的鳥(niǎo)類知識(shí)有限,訓(xùn)練數(shù)據(jù)集中有大量的鳥(niǎo)類分類是錯(cuò)誤的。
花費(fèi)了大量精力修正訓(xùn)練數(shù)據(jù)集中的錯(cuò)誤后,他們?yōu)楸姲藛T重新編寫(xiě)和完善工作指導(dǎo)書(shū),并將整個(gè)程序反復(fù)運(yùn)行多次。最終,美靈的設(shè)計(jì)師們發(fā)布的這款A(yù)pp運(yùn)行良好。然后,他們利用用戶數(shù)據(jù)并根據(jù)鳥(niǎo)類專家的修正意見(jiàn)不斷完善人工智能系統(tǒng)。
Dextro是一家位于紐約的計(jì)算機(jī)視覺(jué)初創(chuàng)公司,去年被Axon公司收購(gòu)。Dextro公司也采用了類似的方法調(diào)試人工智能視頻識(shí)別系統(tǒng),通過(guò)識(shí)別誤報(bào)(false positives)和漏報(bào)(false negatives)來(lái)反復(fù)訓(xùn)練神經(jīng)網(wǎng)絡(luò)系統(tǒng)并評(píng)估系統(tǒng)的變化。我們可以期待,研究人員將作為Axon公司的一部分,繼續(xù)推進(jìn)這些實(shí)踐。但自從Dextro公司被收購(gòu)后,Axon公司的人工智能團(tuán)隊(duì)沒(méi)有公布警用執(zhí)法記錄儀視頻所采用技術(shù)的相關(guān)消息。
2018年9月,歐洲計(jì)算機(jī)視覺(jué)國(guó)際大會(huì)(European Conference on Computer Vision)在慕尼黑召開(kāi)。Axon公司的人工智能專家在會(huì)上提到,他們的技術(shù)在一場(chǎng)視頻理解公開(kāi)賽上表現(xiàn)卓越并取得了很好的排名??紤]到這場(chǎng)比賽采用的是來(lái)自YouTube的視頻,其結(jié)果與警方執(zhí)法記錄儀視頻之間的相關(guān)性尚不明確。對(duì)于其人工智能的功能,Axon公司分享的信息遠(yuǎn)少于中國(guó)計(jì)算機(jī)視覺(jué)初創(chuàng)公司——北京曠視科技有限公司,該公司定期向公開(kāi)賽提交圖像分析系統(tǒng),并且經(jīng)常在比賽中獲勝。
人工智能開(kāi)發(fā)者經(jīng)常使用某些已確立的標(biāo)準(zhǔn)來(lái)評(píng)估系統(tǒng)的性能,定位系統(tǒng)的缺陷并找出原因。這就是人工智能研究,特別是計(jì)算機(jī)視覺(jué)研究(比如美靈鳥(niǎo)類識(shí)別應(yīng)用)嚴(yán)重依賴領(lǐng)域?qū)<业脑?。一套公開(kāi)的標(biāo)準(zhǔn)、一系列公開(kāi)的比賽和任何興趣團(tuán)體都能參與的研討會(huì),這些也共同營(yíng)造了一個(gè)容易發(fā)現(xiàn)人工智能系統(tǒng)問(wèn)題的氛圍。
但是,正如加州大學(xué)戴維斯分校的法學(xué)學(xué)者伊麗莎白?喬(Elizabeth Joh)所說(shuō),如果私有監(jiān)控技術(shù)公司要維護(hù)這些軟件的商業(yè)機(jī)密特權(quán),這個(gè)程序就亂套了。毫無(wú)疑問(wèn),警局需要從私人企業(yè)采購(gòu)裝備和服務(wù)。但是,Axon公司開(kāi)發(fā)的這類人工智能軟件與采購(gòu)的復(fù)印紙、保潔服務(wù)或其他常規(guī)電腦軟件等相比,有著本質(zhì)的區(qū)別,因?yàn)檫@項(xiàng)技術(shù)本身會(huì)影響警方的判斷和行動(dòng)。
舉一個(gè)例子,解讀視頻的人工智能將戴有面紗的女士歸類為戴面具的人,這有可能提示警察下意識(shí)地認(rèn)為她們有更大的嫌疑,甚至可能會(huì)激怒她們,導(dǎo)致她們不予合作。這種改變會(huì)被執(zhí)法記錄儀拍攝下來(lái),影響Axon公司用于開(kāi)發(fā)未來(lái)人工智能工具的訓(xùn)練數(shù)據(jù)集,導(dǎo)致這一偏見(jiàn)被進(jìn)一步固化,而起因只是軟件的錯(cuò)誤判斷。
在這個(gè)過(guò)程中,如果沒(méi)有獨(dú)立的專家對(duì)這些自動(dòng)解讀進(jìn)行徹查,這個(gè)循環(huán)系統(tǒng)很快就會(huì)退化,導(dǎo)致人工智能產(chǎn)生偏差或不可靠的結(jié)果。
現(xiàn)在還不能確定Axon公司的視頻管理系統(tǒng)會(huì)不會(huì)發(fā)生這種情況。但是,ProPublica公司曾在2016年披露過(guò),刑事司法系統(tǒng)使用的分類工具——替代性處罰矯正罪犯管理分析(Correctional Offender Management Profiling for Alternative Sanctions,COMPAS)中就曾存在此類問(wèn)題。法官根據(jù)審判前風(fēng)險(xiǎn)評(píng)估算法的結(jié)果,決定被捕者是否適用緩刑或其他替代入獄方式。
根據(jù)佛羅里達(dá)州布勞沃德郡被捕者的記錄,ProPublica公司對(duì)COMPAS造成的危險(xiǎn)因素評(píng)分高達(dá)7 000分。將這些預(yù)測(cè)與接下來(lái)兩年里的逮捕記錄進(jìn)行比對(duì)發(fā)現(xiàn),即使是查證了犯罪歷史和犯罪類型以后,帶有種族偏見(jiàn)的錯(cuò)誤預(yù)測(cè)依然存在。作為COMPAS的銷售方,NorthPointe公司盡管對(duì)ProPublica的研究表示質(zhì)疑,但從未公布過(guò)任何技術(shù)細(xì)節(jié)供人們監(jiān)督和審查。一位來(lái)自威斯康星州的男子埃里克?盧米斯(Eric Loomis)在法庭上挑戰(zhàn)了COMPAS黑箱計(jì)算的權(quán)威,他聲稱利用COMPAS對(duì)他做出6年監(jiān)禁的判決侵犯了他走正當(dāng)法律程序的權(quán)利。但最高法院駁回了他的訴求,支持NorthPointe公司以涉及商業(yè)機(jī)密為由拒絕接受對(duì)COMPAS進(jìn)行審查。
統(tǒng)計(jì)學(xué)家克里斯汀?盧姆(Kristen Lum)和政治學(xué)家威廉?艾薩克(William Isaac)發(fā)現(xiàn),同樣的問(wèn)題也存在于一款名為PredPol的預(yù)測(cè)警務(wù)系統(tǒng)中。他們表示,由于使用的訓(xùn)練數(shù)據(jù)存在偏差,這款系統(tǒng)生成的結(jié)果經(jīng)常對(duì)黑人有失偏頗。
鑒于機(jī)器學(xué)習(xí)易被有偏差的訓(xùn)練數(shù)據(jù)影響以及前沿工具在實(shí)驗(yàn)室的表現(xiàn),我們有理由懷疑Axon公司在未來(lái)幾年開(kāi)發(fā)的自動(dòng)化視頻分類服務(wù)會(huì)存在嚴(yán)重的缺陷。不過(guò)外部分析師也無(wú)法給出肯定的判斷,因?yàn)檫@些軟件是有專利的。
警方報(bào)告都是公開(kāi)的檔案,所以你也許會(huì)認(rèn)為Axon公司自動(dòng)檔案管理系統(tǒng)中如果存在明顯錯(cuò)誤,會(huì)很快被發(fā)現(xiàn),但事實(shí)并非如此。東拼西湊的美國(guó)數(shù)據(jù)保護(hù)法律表明,對(duì)于何人在何時(shí)以何種方式獲取執(zhí)法記錄儀視頻資料的問(wèn)題,尚未有明確的國(guó)家標(biāo)準(zhǔn)。更有甚者,美國(guó)出版自由記者委員會(huì)(Reporters' Committee for the Freedom of the Press)將這些執(zhí)法記錄儀視頻檔案稱為“公開(kāi)檔案要求的狂野西部”(the Wild West of open records requests)。在這種情況下,即使是影響到多家警局的嚴(yán)重技術(shù)問(wèn)題,也難以被發(fā)現(xiàn)。
難道警官們自己在日常工作中就不能發(fā)現(xiàn)Axon公司的人工智能有問(wèn)題嗎?也許能吧。但他們自己也可能會(huì)受到“自動(dòng)偏差”的影響。人們往往更容易接受計(jì)算機(jī)的判斷,而不是自己的判斷,因?yàn)樗麄兿嘈艡C(jī)器的客觀性。
所以,即使是Axon公司的人工智能能夠?qū)崿F(xiàn)執(zhí)法記錄儀視頻的自動(dòng)文字轉(zhuǎn)錄并據(jù)此生成警方報(bào)告(而我們相信目前這是不可能實(shí)現(xiàn)的),公平性、責(zé)任性以及透明性等問(wèn)題也依然存在。
這不是第一次出于實(shí)效和安全原因?qū)π录夹g(shù)提出這種要求,它們?cè)陂_(kāi)發(fā)過(guò)程中以及進(jìn)入市場(chǎng)后,都要接受獨(dú)立檢測(cè)和監(jiān)控。這是有先例可尋的。
美國(guó)食品藥品監(jiān)督管理局(FDA)就是一個(gè)例子。美國(guó)食品藥品監(jiān)督管理局成立于20世紀(jì)早期,負(fù)責(zé)對(duì)有毒性的或貼錯(cuò)標(biāo)簽的食品和藥品進(jìn)行監(jiān)管。它的職責(zé)之一就是防止藥品公司通過(guò)招搖撞騙來(lái)牟利。同樣,人工智能商家出售影響人體健康、安全和自由的產(chǎn)品和服務(wù)時(shí),也應(yīng)該要求將它們的代碼提交給一個(gè)新的管理部門,該部門的專家應(yīng)根據(jù)既定的標(biāo)準(zhǔn)對(duì)新提交的人工智能系統(tǒng)進(jìn)行測(cè)試。正如律師馬修?舍勒(Matthew Scherer)在《人工智能開(kāi)發(fā)法案》(Artificial Intelligence Development Act)建議書(shū)中提出的那樣。這項(xiàng)要求也許會(huì)在短期內(nèi)損害公司的收益,但可以確保公眾的安全,有助于新技術(shù)的合法化。法制化的協(xié)同測(cè)試以及細(xì)化管理將提升這些系統(tǒng)的性能,為當(dāng)前振興人工智能提供動(dòng)力。
新的聯(lián)邦監(jiān)管制度難以在短時(shí)間內(nèi)實(shí)現(xiàn),但州和地方政府已經(jīng)不能再等了。西雅圖近期提出了《監(jiān)控技術(shù)采購(gòu)》立法計(jì)劃,要求市政部門在采購(gòu)新的監(jiān)控軟件之前必須進(jìn)行外展宣傳并取得市議會(huì)的批準(zhǔn)。有些地方政府也許會(huì)接受黑人生命運(yùn)動(dòng)(Movement for Black Lives)的立場(chǎng),這項(xiàng)運(yùn)動(dòng)的訴求是全面結(jié)束使用警方監(jiān)控技術(shù)作為廣泛政策平臺(tái)的一部分。有些地區(qū)的人們看到了執(zhí)法記錄儀帶來(lái)的好處,他們也許會(huì)立法要求任何警用人工智能系統(tǒng)都須進(jìn)行獨(dú)立的質(zhì)量保證測(cè)試。
━━━━
值得贊揚(yáng)的是,Axon公司已經(jīng)成立了人工智能和警務(wù)科技道德委員會(huì)(AI and Policing Technology Ethics Board)來(lái)攻克這些棘手的問(wèn)題。委員會(huì)成員包括OpenAI的發(fā)起人、人工智能社會(huì)因素專家邁爾斯?布倫戴奇(Miles Brundage),佛羅里達(dá)州萊昂郡的治安官、社區(qū)警務(wù)專家沃爾特?麥克尼爾(Walter McNeil),華盛頓大學(xué)計(jì)算機(jī)視覺(jué)研究員阿里?法哈迪(Ali Farhadi),以及電子前沿基金會(huì)(Electronic Frontier Foundation)的機(jī)器人專家杰瑞米?吉魯拉(Jeremy Gillula)。
4位委員與我們分享了他們的觀點(diǎn)。布倫戴奇恰當(dāng)?shù)刂赋觯骸翱紤]到執(zhí)法部門的IT技術(shù)水平往往有限,Axon公司已經(jīng)上市或尚未上市的產(chǎn)品和服務(wù)都可能會(huì)對(duì)事件的走向產(chǎn)生影響,所以,我們應(yīng)該從Axon公司的角度出發(fā),仔細(xì)考慮有哪些保護(hù)措施是可行的?!蔽覀兺馑目捶?。根據(jù)委員會(huì)成員對(duì)我們的答復(fù),Axon公司的道德委員會(huì)到目前為止僅舉行過(guò)一次會(huì)議,討論基本法規(guī),而對(duì)于Axon公司的研發(fā)業(yè)務(wù),沒(méi)有提出獨(dú)特的見(jiàn)解。
2018年4月,包括全美有色人種協(xié)進(jìn)會(huì)(NAACP)和現(xiàn)代人工智能研究所(AI Now Institute)在內(nèi)的42家人權(quán)和科技組織共同簽署了一封公開(kāi)信,敦促Axon公司的人工智能道德委員會(huì)促成公司接受對(duì)所有產(chǎn)品的嚴(yán)格道德審查,并承諾不使用被這些組織認(rèn)定為具有危險(xiǎn)性或尚未通過(guò)檢測(cè)的技術(shù)。其中主要是實(shí)時(shí)人臉識(shí)別技術(shù)。Axon公司宣稱,他們目前沒(méi)有為執(zhí)法記錄儀開(kāi)發(fā)這一技術(shù),但據(jù)《華爾街日?qǐng)?bào)》報(bào)道,Axon公司實(shí)際上已經(jīng)在研發(fā)此類技術(shù)了。
以北京曠視為代表的其他多家公司也正在開(kāi)發(fā)這項(xiàng)技術(shù),并在尋求中國(guó)和其他亞洲國(guó)家警局的批準(zhǔn),在警用執(zhí)法記錄儀上添加實(shí)時(shí)人臉識(shí)別功能。摩托羅拉系統(tǒng)有限公司(Motorola Solutions)也希望在短期內(nèi)將這項(xiàng)技術(shù)推向美國(guó)。
至于西方國(guó)家是否會(huì)接受在警用執(zhí)法記錄儀上增加人臉識(shí)別功能,讓我們拭目以待。在我們看來(lái),這項(xiàng)決定需要進(jìn)行公開(kāi)討論。但是,如果這項(xiàng)技術(shù)的性能和缺陷都不為外人所知,理性的探討也就無(wú)從談起。
無(wú)論是人臉還是鳥(niǎo)類領(lǐng)域,目前人工智能都受益于開(kāi)放性的文化,這種文化促進(jìn)了領(lǐng)域?qū)<摇⒂?jì)算機(jī)科學(xué)家以及用戶之間的交流。我們提出的監(jiān)管要求將確保刑事司法系統(tǒng)中使用的人工智能接受類似的審查,以證實(shí)其不存在偏見(jiàn)且可以信賴。這些規(guī)則也許會(huì)有點(diǎn)防礙商業(yè)化進(jìn)程,但這是正當(dāng)法律程序和堅(jiān)實(shí)工程技術(shù)的本質(zhì)。
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4772瀏覽量
100845 -
人工智能
+關(guān)注
關(guān)注
1791文章
47352瀏覽量
238771 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5504瀏覽量
121227
原文標(biāo)題:我們可以信任人工智能對(duì)執(zhí)法記錄儀視頻的解讀嗎?
文章出處:【微信號(hào):IEEE_China,微信公眾號(hào):IEEE電氣電子工程師】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論