人工智能的異軍突起將這樣的案件帶入公共視野,也為當(dāng)前的***法規(guī)、倫理規(guī)范和政策體系帶來不小的考驗(yàn):
“人工智能的載體究竟是不是***主體?”
這樣的問題在斯坦福大學(xué)新開設(shè)的一門***和計(jì)算機(jī)科學(xué)交叉的課程上激起了熱烈討論。如果不是***主體,那么當(dāng)人工智能載體觸犯他人利益、造成社會(huì)損失時(shí),究竟應(yīng)該由研發(fā)者、運(yùn)營者還是使用者承擔(dān)責(zé)任呢?如果是***主體,那么又該如何為這些“人工智能”定罪量刑呢?
今天小探就帶你一起看看,在人工智能沖擊傳統(tǒng)***、公共政策的當(dāng)下,斯坦福大學(xué)的教育專家和***人士都在做些什么努力。
AI制定政策?***早已啟動(dòng)
不要以為人工智能只是科技公司的專利。事實(shí)上,近年來美國***已經(jīng)開始考慮使用機(jī)器學(xué)習(xí)和人工智能相關(guān)技術(shù)幫助公共政策的制定。
美國環(huán)保署(EPA)管理殺蟲劑的例子就很好體現(xiàn)了算法分析和***相互作用的微妙形式。
過去,美國環(huán)保署對(duì)殺蟲劑的毒性檢測(cè)很大程度上取決于動(dòng)物對(duì)化學(xué)藥物的反應(yīng)。但面對(duì)超過80000種待檢測(cè)化學(xué)藥物的壓力,這種方法被普遍評(píng)價(jià)為緩慢、昂貴、又不人道。
后來,美國環(huán)保署開始大量收集數(shù)據(jù),并引進(jìn)不同計(jì)算方法來規(guī)范化學(xué)毒性檢查。它建立了一個(gè)聚合計(jì)算毒理學(xué)資源庫(Aggregated Computational Toxicology Resource),根據(jù)各種公共資源整合的關(guān)系型數(shù)據(jù)庫,用以支持?jǐn)?shù)據(jù)挖掘和建模?!谒惴ㄅc神經(jīng)網(wǎng)絡(luò)對(duì)數(shù)據(jù)的分析中去尋找決策新思路。
當(dāng)人工智能介入***決策,美國的殘疾索賠程序也開始發(fā)生變化。
2013年以來,為了減少工作人員審理紙質(zhì)文件的負(fù)擔(dān),并提高案件決策一致性,美國退伍軍人事務(wù)部推出了一套計(jì)算機(jī)案件管理系統(tǒng),用于處理退伍軍人的殘疾索賠。
據(jù)報(bào)道,該系統(tǒng)可以根據(jù)索賠人(自我報(bào)告)的調(diào)查問卷,從0-100%自動(dòng)評(píng)估不同退伍軍人的殘疾程度。目前這套軟件使用的是IBM Watson 的人工智能程序,從退伍軍人的電子醫(yī)療記錄中進(jìn)行數(shù)據(jù)篩選。
科技巨頭,政府?dāng)?shù)字化改革的合伙人?
今年2月,特朗普簽署了一項(xiàng)推廣人工智能的新行政命令,再次將人工智能升級(jí)為國之重策。然而目前除了軍事部門,大部分聯(lián)邦機(jī)構(gòu)的技術(shù)更新依舊緩緩慢,高技術(shù)人才也相對(duì)緊缺。哪里高級(jí)人才多?當(dāng)然要屬硅谷的科技巨頭們了。
那么,處于技術(shù)前沿的科技公司又在***的技術(shù)升級(jí)中擔(dān)任什么角色呢?
像IBM等科技巨頭跟政府已在人工智能領(lǐng)域有多個(gè)合作項(xiàng)目:
美國海軍陸戰(zhàn)隊(duì)正在使用Watson的人工智能設(shè)備來診斷軍用車輛的性能,并將自然語言處理和數(shù)據(jù)科學(xué)——例如IBM的SPSS統(tǒng)計(jì)軟件和Watson Explorer——應(yīng)用于人員的組織和部署。在不久前,這些大部分計(jì)劃和日程安排都是通過電子表格完成的。
除了技術(shù)上的支持,科技公司也會(huì)在核心科技的政策、監(jiān)管、應(yīng)用前景方面與政府交換意見。
今年2月,谷歌便向美國政府提出了一份長達(dá)34頁的《關(guān)于人工智能管理的意見》(Perspective on Issues in AI Governance),呼吁政府和社會(huì)、工業(yè)界就人工智能的可解釋性標(biāo)準(zhǔn)、公平性評(píng)估、安全考慮和責(zé)任框架等方面進(jìn)行合作。
谷歌建議,要像歐洲的電子產(chǎn)品在銷售前需經(jīng)過CE認(rèn)證一樣,美國政府也應(yīng)為人工智能創(chuàng)建類似的安全指標(biāo)?!袄?,針對(duì)智能鎖當(dāng)中的生物識(shí)別技術(shù),就應(yīng)在使用前測(cè)試它的準(zhǔn)確度是否達(dá)標(biāo)?!惫雀璧男屡d技術(shù)全球政策負(fù)責(zé)人Charina Chou表示。
盡管不少科技巨頭都與政府在技術(shù)方面的合作項(xiàng)目,但如果這些項(xiàng)目有涉及侵犯隱私、違背倫理的風(fēng)險(xiǎn)呢?
還記得谷歌和美國國防部合作的Maven項(xiàng)目嗎?這個(gè)去年3月被爆出后鬧得沸沸揚(yáng)揚(yáng)的項(xiàng)目,是谷歌把人工智能技術(shù)用于分析無人機(jī)鏡頭當(dāng)中,幫助無人機(jī)更好地從移動(dòng)或靜止圖像中自動(dòng)追蹤感興趣對(duì)象,從而提高打擊精準(zhǔn)度。這些無人機(jī)可能會(huì)參與到美國對(duì)阿富汗、巴勒斯坦、也門等國的空襲當(dāng)中。
很快,超過4000名谷歌員工簽署了一份反對(duì)“Maven”項(xiàng)目的***,他們?cè)凇?**》刊登了整版廣告,并導(dǎo)致了數(shù)十名員工辭職。最終,去年6月,谷歌松口了。表示將在今年3月到期后,不再與國防部續(xù)約合作。
450多名亞馬遜員工也在近日公開致信貝索斯,希望公司停止與美國國防部和執(zhí)法系統(tǒng)就面部識(shí)別軟件 Rekognition 合作的項(xiàng)目。他們擔(dān)憂的地方在于,***在沒有公眾監(jiān)督、社會(huì)問責(zé)和亞馬遜限制的情況下使用這些技術(shù),很可能造成對(duì)***的侵犯。
然而,貝索斯表示,公司將持續(xù)和國防部合作,“如果大科技公司都拒絕了國防部,那么這個(gè)國家會(huì)陷入麻煩……這是我們?cè)撟龅氖虑?,就算它不受歡迎?!?/p>
人工智能與行政結(jié)合的優(yōu)勢(shì)與擔(dān)憂
到底人工智能對(duì)政府績效的改善有哪些優(yōu)點(diǎn)?主要有三點(diǎn)難以抗拒的優(yōu)勢(shì)。
第一是效率。以較低成本完成大量重復(fù)性事件。另一方面,機(jī)器能在排除個(gè)人因素干擾的前提下進(jìn)行數(shù)據(jù)分析和結(jié)果預(yù)測(cè)。決策者可能表現(xiàn)出種族偏見,可能過分地或不足地衡量某一信息的重要性,或者可能對(duì)所處情況的預(yù)設(shè)過于天真。對(duì)人為意志的排除使機(jī)器做出的決策有天然的說服力。
最重要的是,通過與大數(shù)據(jù)的連接,計(jì)算機(jī)程序能幫政府官員分析信息,并對(duì)潛在的戰(zhàn)略性行為做出反應(yīng)。
然而,提升行政效率帶來的同時(shí),使用機(jī)器辦公的規(guī)范性問題也被提上日程。
近期,加州最高法院大法官M(fèi)ariano-Florentino Cuéllar就在其著作《人工智能與行政國家》(Artificial Intelligence and the Administrative State)中,提出了四點(diǎn)對(duì)決策過程中使用人工智能代理的擔(dān)憂。
首先,政府是否該依賴計(jì)算機(jī)程序做出某項(xiàng)決策?大法官認(rèn)為,這取決于決策目標(biāo)的社會(huì)爭議性。當(dāng)前,立法者常針對(duì)是否該做出某項(xiàng)行政決定(如實(shí)施經(jīng)濟(jì)制裁)以及該決定會(huì)在不同層面導(dǎo)致的后果進(jìn)行大量的辯論,人工智能將如何統(tǒng)籌政治博弈中的各方利益?這將是個(gè)不小的挑戰(zhàn)。
第二點(diǎn)擔(dān)憂和爭議來自人工智能所謂的“機(jī)械理性”。由于在由算法主導(dǎo)的行政決策占越來越重要的位置,但機(jī)器減少人為因素干擾的同時(shí),是否應(yīng)該反思,那些所謂的“偏見”和“情感因素”是否都沒有價(jià)值?一些可能被機(jī)器排除的“偏見”例如對(duì)***的同情,或許也同樣值得關(guān)注。
第三,網(wǎng)絡(luò)安全風(fēng)險(xiǎn)及其他不利影響。當(dāng)行政越來越依賴數(shù)據(jù)收集和計(jì)算機(jī)程序,這可能帶來更高的效率,也同時(shí)意味著受網(wǎng)絡(luò)安全威脅的影響更大。
最后,如何向公眾解釋決策過程將遇到困難。試想一下,***治理的內(nèi)涵是通過對(duì)話和交流,每一種聲音都有被決策者或公眾理解、接受或拒絕的機(jī)會(huì)。除非人工智能的決策機(jī)制能依賴相對(duì)簡單透明的結(jié)構(gòu),否則向公眾提供決策如何產(chǎn)生的理由時(shí),決策機(jī)構(gòu)將會(huì)遇到相當(dāng)?shù)睦щy。
斯坦福***課上的頭腦風(fēng)暴
面對(duì)這些擔(dān)憂,身處硅谷中心的斯坦福大學(xué)已開始促成從學(xué)術(shù)研究到業(yè)界層面的合作:從2019年起,斯坦福大學(xué)政策研究中心新開設(shè)一門***和計(jì)算機(jī)科學(xué)交叉的課程“算法管理:在規(guī)制型國家中的人工智能”。(Administering by Algorithm: Artificial Intelligence in the Regulatory State)
這門課程由斯坦福法學(xué)院教授David Freeman Engstrom、Daniel E. Ho,和加州最高法院大法官M(fèi)ariano-Florentino Cuéllar共同教授,并邀請(qǐng)了25位律師、計(jì)算機(jī)科學(xué)家和算法工程師來和大家共同探討政府機(jī)構(gòu)的技術(shù)研發(fā)和應(yīng)用。
從左至右:斯坦福法學(xué)院教授Daniel E. Ho,David Freeman Engstrom和加州最高法院大法官M(fèi)ariano-Florentino Cuéllar
“我們現(xiàn)在面臨著專業(yè)技術(shù)和認(rèn)知上的不匹配。一方面在***判決中我們需要***機(jī)構(gòu)能解釋做出這樣決策的原因,另一方面,人工智能和機(jī)器學(xué)習(xí)的工作機(jī)制尚未完全透明,”斯坦福法學(xué)院教授David Freeman Engstrom說道。
課堂的學(xué)生來自計(jì)算機(jī)科學(xué)、***、政治、哲學(xué)等多個(gè)專業(yè)背景,需要通過團(tuán)隊(duì)合作,完成三部分任務(wù)。
首先,團(tuán)隊(duì)對(duì)100個(gè)最重要的聯(lián)邦機(jī)構(gòu)進(jìn)行調(diào)查。當(dāng)發(fā)現(xiàn)有算法參與決策的例子時(shí),學(xué)生們開始測(cè)評(píng)這項(xiàng)技術(shù)具體歸屬哪一類:是屬于人工智能,還是機(jī)器學(xué)習(xí),還是一些其他的基礎(chǔ)技術(shù)?
第二步,學(xué)生集體評(píng)估近期或中期政府機(jī)構(gòu)中最可能部署人工智能的環(huán)節(jié)。
最后,轉(zhuǎn)向規(guī)范性問題探討:思考使用人工智能執(zhí)行監(jiān)管任務(wù)帶來的***、政策分析和哲學(xué)層面的挑戰(zhàn)。例如,如何解決諸多程序性權(quán)利面臨被機(jī)器行政架空的威脅等。
課程結(jié)束后,學(xué)生將完成一份報(bào)告,探討行政機(jī)構(gòu)在不同層面該如何應(yīng)用人工智能技術(shù)。該報(bào)告將提交到無黨派獨(dú)立機(jī)構(gòu)美國行政會(huì)議(Administrative Conference of the United States),并有望影響未來行政機(jī)構(gòu)的政策。
評(píng)論
查看更多