專注于數(shù)據(jù)、技術(shù)與公共政策的美國科技智庫數(shù)據(jù)創(chuàng)新中心的高級(jí)政策分析師Joshua New撰文表示,由于美國采取的一些錯(cuò)誤建議,美國有可能在當(dāng)前的全球人工智能競(jìng)賽中落后于他國。該文主要內(nèi)容如下:
在全球人工智能競(jìng)賽中贏得主導(dǎo)地位的國家必將獲得巨大經(jīng)濟(jì)利益,包括經(jīng)濟(jì)增長率到2035年可能翻一番。不幸的是,美國在如何競(jìng)爭(zhēng)方面得到了一些錯(cuò)誤建議。
在過去的2017年,為了在人工智能競(jìng)爭(zhēng)中取得勝利,加拿大、中國、法國、印度、日本和英國都啟動(dòng)了政府支持的重大舉措。雖然特朗普政府已經(jīng)開始關(guān)注如何推進(jìn)這項(xiàng)技術(shù),但還沒有制定出與其他國家的戰(zhàn)略具有同等凝聚力的國家戰(zhàn)略。這種現(xiàn)狀帶來的后果是,在關(guān)于美國政策制定者應(yīng)如何支持人工智能的對(duì)話中,主要關(guān)注通過對(duì)技術(shù)施加限制性監(jiān)管來避免人工智能潛在危害(而不是支持其增長)的倡導(dǎo)者提交的提案占據(jù)了支配地位。
人工智能確實(shí)帶來了獨(dú)特的挑戰(zhàn),從可能加劇刑事司法體系中的種族偏見到引起對(duì)自動(dòng)駕駛汽車的道德關(guān)注,不一而足。而應(yīng)對(duì)這些挑戰(zhàn)的主導(dǎo)觀念則是強(qiáng)制實(shí)施算法透明度原則或算法可解釋性原則,或是成立全局人工智能監(jiān)管機(jī)構(gòu)。但是,這些措施不僅可能無法有效應(yīng)對(duì)潛在挑戰(zhàn),它們還可能會(huì)大大減緩美國開發(fā)和采用人工智能的速度。
算法透明度的支持者認(rèn)為,要求各家公司披露其算法的源代碼可讓監(jiān)管機(jī)構(gòu)、媒體和關(guān)心此類問題的公民仔細(xì)檢查代碼以及確定是否有任何不當(dāng)行為的跡象。盡管人工智能系統(tǒng)的復(fù)雜性讓大家?guī)缀鯖]有理由相信這種做法會(huì)有任何實(shí)際效果,但對(duì)于那些經(jīng)常無視知識(shí)產(chǎn)權(quán)保護(hù)的國家的慣犯來說,這會(huì)讓竊取美國的源代碼變得非常容易。同時(shí),這還會(huì)給美國在全球人工智能競(jìng)賽中的主要競(jìng)爭(zhēng)對(duì)手提供幫助,并減少對(duì)美國公司投資開發(fā)人工智能的激勵(lì)。
其他人則提議應(yīng)用算法可解釋性原則。根據(jù)此原則,政府會(huì)要求各家公司讓其算法對(duì)最終用戶而言可解釋,方法包括通過描述其算法的工作原理或僅使用能夠闡明其決策理由的算法等。例如,歐盟已將可解釋性作為針對(duì)人工智能潛在危險(xiǎn)的主要檢查,并在其《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,GDPR)中保障每個(gè)個(gè)體獲取關(guān)于算法所做特定決策的“有意義信息”的權(quán)利。
要求可解釋性的做法是恰當(dāng)?shù)?,并且已成為許多領(lǐng)域的標(biāo)準(zhǔn)做法,例如刑事司法領(lǐng)域或消費(fèi)金融領(lǐng)域。但是,在同一標(biāo)準(zhǔn)不適用于人類決策的情況下,將這一要求擴(kuò)展到人工智能決策領(lǐng)域則會(huì)是一個(gè)錯(cuò)誤。這種做法會(huì)刺激企業(yè)依賴人類做出決策,從而避免此類監(jiān)管負(fù)擔(dān),但這會(huì)以犧牲生產(chǎn)力和創(chuàng)新性為代價(jià)。
此外,可解釋性和準(zhǔn)確性之間可能存在不可避免的權(quán)衡。算法的準(zhǔn)確性通常隨著其復(fù)雜性的增加而提高,但算法越復(fù)雜,解釋起來就會(huì)越困難。這種權(quán)衡一直存在,擁有兩個(gè)變量的簡單線性回歸比擁有兩百個(gè)變量的線性回歸更容易解釋。但是,使用更加高級(jí)的數(shù)據(jù)科學(xué)方法時(shí),權(quán)衡會(huì)變得更加尖銳。因此,可解釋性要求在可以適當(dāng)犧牲準(zhǔn)確性的情況中才有意義,而這些情況很少見。例如,在自動(dòng)駕駛汽車中讓可解釋性優(yōu)先于準(zhǔn)確性會(huì)是一個(gè)可怕的想法,因?yàn)閷?dǎo)航準(zhǔn)確性或車輛區(qū)分道路上的行人和廣告牌上的人類照片的能力即便只是略微下降,也可能極度危險(xiǎn)。
第三個(gè)普遍但糟糕的想法是,成立相當(dāng)于美國食品藥品監(jiān)督管理局(Food and Drug Administration)或國家運(yùn)輸安全委員會(huì)(National Transportation Safety Board)的機(jī)構(gòu)來充當(dāng)全局人工智能監(jiān)管機(jī)構(gòu),這一想法最引人注目的支持者是埃隆·馬斯克(Elon Musk)。問題在于,成立人工智能監(jiān)管機(jī)構(gòu)會(huì)錯(cuò)誤地暗示所有算法都存在相同水平的風(fēng)險(xiǎn)并需要監(jiān)管。但是,人工智能系統(tǒng)的決策就和人類的決策一樣,仍然受制于各種行業(yè)特定的法律和法規(guī),并會(huì)根據(jù)其應(yīng)用范圍帶來各種各樣的風(fēng)險(xiǎn)。僅僅因?yàn)榈惋L(fēng)險(xiǎn)決策使用了算法就將其置于監(jiān)管之下會(huì)為部署人工智能帶來極大的阻礙,并會(huì)限制美國公司采用這項(xiàng)技術(shù)的能力。
幸運(yùn)的是,政策制定者能夠通過可行的方法,在不破壞人工智能的情況下應(yīng)對(duì)人工智能帶來的潛在風(fēng)險(xiǎn),即采用算法問責(zé)制原則。這是一種干涉較少的監(jiān)管方法,可激勵(lì)部署算法的企業(yè)使用各種控制手段來確保其人工智能系統(tǒng)按照預(yù)期運(yùn)行,并識(shí)別和糾正不良后果。它與算法透明度不同,不會(huì)威脅知識(shí)產(chǎn)權(quán)。它與算法可解釋性也不同,允許公司部署高級(jí)創(chuàng)新人工智能系統(tǒng),但仍然會(huì)要求它們能夠在上下文需要時(shí)解釋其特定決策,而無論是否在這些決策中使用了人工智能。與主要人工智能監(jiān)管機(jī)構(gòu)不同的是,算法問責(zé)制可確保監(jiān)管機(jī)構(gòu)能夠了解其行業(yè)特定領(lǐng)域內(nèi)的人工智能,同時(shí)對(duì)妨礙人工智能部署的障礙加以限制。
如果美國想要成為全球人工智能競(jìng)賽中的有力競(jìng)爭(zhēng)者,那么政策制定者最不應(yīng)該做的就是通過效率低下、損害經(jīng)濟(jì)利益的監(jiān)管對(duì)人工智能進(jìn)行束縛。現(xiàn)在想要專注于不公平或不安全人工智能的政策制定者應(yīng)改為應(yīng)用算法問責(zé)制原則解決自己關(guān)切的問題,而不要在美國加入全球人工智能競(jìng)賽的過程中加以妨礙。
-
算法
+關(guān)注
關(guān)注
23文章
4623瀏覽量
93102 -
人工智能
+關(guān)注
關(guān)注
1792文章
47492瀏覽量
239176 -
源代碼
+關(guān)注
關(guān)注
96文章
2946瀏覽量
66830
原文標(biāo)題:智庫專家:美國可能在全球人工智能競(jìng)賽中處于落后
文章出處:【微信號(hào):AI_News,微信公眾號(hào):人工智能快報(bào)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論