人工智能是引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的顛覆性技術(shù),在為人類創(chuàng)造巨大福祉的同時(shí),也會催生各類全新的安全風(fēng)險(xiǎn)。為科學(xué)預(yù)判和管控人工智能發(fā)展的安全風(fēng)險(xiǎn),按照循序漸進(jìn)、分類施策的原則,每年聚焦若干關(guān)鍵問題的治理,提出人工智能安全與法治導(dǎo)則。2019年度重點(diǎn)是算法安全、數(shù)據(jù)安全、知識產(chǎn)權(quán)、社會就業(yè)和法律責(zé)任。
一、人工智能算法安全
(一)風(fēng)險(xiǎn)挑戰(zhàn)
人工智能算法安全風(fēng)險(xiǎn)是指由于人工智能算法設(shè)計(jì)、程序運(yùn)行導(dǎo)致的各類安全風(fēng)險(xiǎn),主要包括技術(shù)缺陷、設(shè)計(jì)偏見和算法黑箱等風(fēng)險(xiǎn)。
1.技術(shù)缺陷。由于算法模型存在技術(shù)性缺陷,導(dǎo)致人工智能系統(tǒng)無法正常運(yùn)行,或受到外部網(wǎng)絡(luò)攻擊和惡意樣本侵?jǐn)_,產(chǎn)生與預(yù)期不符乃至危害性結(jié)果,造成人員和財(cái)產(chǎn)損失。
2.設(shè)計(jì)偏見。由于算法設(shè)計(jì)者自身存在價(jià)值偏見,導(dǎo)致算法設(shè)計(jì)無法實(shí)現(xiàn)設(shè)計(jì)者既定的向善目標(biāo),產(chǎn)生與預(yù)期不符以及危害性社會結(jié)果,例如算法歧視等。
3.算法黑箱。人工智能技術(shù)趨向自主學(xué)習(xí)和持續(xù)進(jìn)化,不僅外部用戶難以了解算法的運(yùn)行邏輯,開發(fā)者自身也越來越難以全面解釋算法的決策機(jī)制,算法的“黑箱化”將導(dǎo)致技術(shù)失控以及其他危害性結(jié)果。
(二)法治應(yīng)對
1.開展算法安全的技術(shù)評估。通過政策和法律引導(dǎo),鼓勵人工智能安全技術(shù)研發(fā),構(gòu)建人工智能軟件質(zhì)量評估體系,針對人工智能重點(diǎn)應(yīng)用,開展人工智能算法安全的評估檢測。
2.推動技術(shù)倫理的算法導(dǎo)入。法律要強(qiáng)化基于人類倫理規(guī)范的算法模型設(shè)計(jì),要求人工智能開發(fā)者設(shè)計(jì)高可解釋性的智能系統(tǒng),促進(jìn)人工智能算法邏輯與人類社會價(jià)值規(guī)范的持續(xù)校準(zhǔn)。
3.加強(qiáng)智能算法的透明監(jiān)督。創(chuàng)新算法監(jiān)管模式,建立多層級監(jiān)管體系,政府須依法開展人工智能的產(chǎn)品和服務(wù)監(jiān)管,人工智能企業(yè)、行業(yè)應(yīng)建立相應(yīng)的算法監(jiān)管體制,保持與政府監(jiān)管的協(xié)同。
二、人工智能數(shù)據(jù)安全
(一)風(fēng)險(xiǎn)挑戰(zhàn)
人工智能數(shù)據(jù)安全風(fēng)險(xiǎn)是指人工智能系統(tǒng)在數(shù)據(jù)采集、分析及流轉(zhuǎn)過程中產(chǎn)生的各類安全風(fēng)險(xiǎn),主要包括數(shù)據(jù)隱私、數(shù)據(jù)控制和數(shù)據(jù)質(zhì)量等風(fēng)險(xiǎn)。
1.?dāng)?shù)據(jù)隱私。數(shù)據(jù)隱私風(fēng)險(xiǎn)包括在采集階段自動化獲取用戶個人敏感信息,在分析階段基于用戶非敏感數(shù)據(jù)智能挖掘得出個人敏感信息并加以利用,在流轉(zhuǎn)階段未經(jīng)用戶許可將用戶數(shù)據(jù)傳遞給第三方機(jī)構(gòu)或其他國家(區(qū)域)。
2.?dāng)?shù)據(jù)保護(hù)。數(shù)據(jù)保護(hù)風(fēng)險(xiǎn)是指人工智能系統(tǒng)數(shù)據(jù)資源遭遇攻擊、竊取、篡改等,導(dǎo)致數(shù)據(jù)發(fā)生泄露、系統(tǒng)無法使用甚至導(dǎo)致功能失控,數(shù)據(jù)是人工智能產(chǎn)品正常穩(wěn)定運(yùn)行的基礎(chǔ),且涉及用戶隱私、商業(yè)秘密乃至國家機(jī)密,數(shù)據(jù)保護(hù)挑戰(zhàn)尤為艱巨。
3.?dāng)?shù)據(jù)質(zhì)量。人工智能的研發(fā)和應(yīng)用對數(shù)據(jù)質(zhì)量依賴度極高。數(shù)據(jù)質(zhì)量不足將對人工智能系統(tǒng)帶來重大風(fēng)險(xiǎn),主要包括數(shù)據(jù)集規(guī)模量、多樣性等不足以及數(shù)據(jù)集遭污染等原因?qū)е碌陌踩L(fēng)險(xiǎn)。
(二)法治應(yīng)對
1.加強(qiáng)數(shù)據(jù)安全立法和執(zhí)法。針對個人數(shù)據(jù)和重要數(shù)據(jù)開展系統(tǒng)立法和嚴(yán)格執(zhí)法,結(jié)合人工智能重點(diǎn)應(yīng)用場景,制定數(shù)據(jù)安全分類分級管理體系和標(biāo)準(zhǔn),對采集和使用敏感個人數(shù)據(jù)的人工智能企業(yè)/行業(yè)須加強(qiáng)法律和行政監(jiān)管。
2.豐富人工智能技術(shù)發(fā)展路徑。當(dāng)前人工智能主流技術(shù)路徑是基于海量數(shù)據(jù)的深度學(xué)習(xí),未來須通過政策手段支持多樣化的人工智能技術(shù)發(fā)展,例如基于小數(shù)據(jù)的人工智能算法技術(shù)等。
3.提升人工智能數(shù)據(jù)資源管理水平。促進(jìn)公共部門和私營部門數(shù)據(jù)資源共享和流通,分行業(yè)構(gòu)建人工智能高質(zhì)量訓(xùn)練數(shù)據(jù)集,降低人工智能數(shù)據(jù)獲取成本,提高人工智能行業(yè)的數(shù)據(jù)質(zhì)量。
三、人工智能知識產(chǎn)權(quán)
人工智能知識產(chǎn)權(quán)是指利用人工智能進(jìn)行文學(xué)、藝術(shù)等作品創(chuàng)作而產(chǎn)生的知識產(chǎn)權(quán)問題,人工智能知識產(chǎn)權(quán)問題包括算法知識產(chǎn)權(quán)、數(shù)據(jù)知識產(chǎn)權(quán)和創(chuàng)作物知識產(chǎn)權(quán)。
(一)風(fēng)險(xiǎn)挑戰(zhàn)
1.算法知識產(chǎn)權(quán)。人工智能系統(tǒng)具有自主學(xué)習(xí)、不可解釋、自動編碼等特點(diǎn),現(xiàn)有的軟件著作權(quán)靜態(tài)保護(hù)模式存在不足,侵權(quán)者可以采用輕易繞過算法的代碼表現(xiàn)形式實(shí)現(xiàn)功能模仿甚至超越,現(xiàn)有的軟件專利保護(hù)模式由于門檻較高且周期較長往往無法適應(yīng)人工智能商業(yè)創(chuàng)新需要。
2.?dāng)?shù)據(jù)知識產(chǎn)權(quán)。人工智能系統(tǒng)主要通過自動化方式處理各類數(shù)據(jù)資源,著作權(quán)保護(hù)通過數(shù)據(jù)庫內(nèi)容選擇或編排而體現(xiàn)其“獨(dú)創(chuàng)性”,人工智能數(shù)據(jù)資源采集和加工方式導(dǎo)致數(shù)據(jù)知識產(chǎn)權(quán)界定具有極大的不確定性。
3.創(chuàng)作物知識產(chǎn)權(quán)。人工智能技術(shù)發(fā)展導(dǎo)致對創(chuàng)作物“獨(dú)創(chuàng)性”界定日益模糊,以人類智力勞動為中心的傳統(tǒng)著作權(quán)保護(hù)模式面臨困境,引發(fā)人工智能系統(tǒng)之間、人工智能系統(tǒng)與人類創(chuàng)作之間的侵權(quán)難以認(rèn)定等問題。
(二)法治應(yīng)對
1.加強(qiáng)人工智能算法的專利保護(hù)。擴(kuò)大專利法對于人工智能算法保護(hù)范圍,針對人工智能算法專利申請制定相關(guān)配套制度,利用技術(shù)手段提高人工智能算法專利審查,提高人工智能算法專利審核效率。
2.鼓勵人工智能數(shù)據(jù)開放性保護(hù)。明確人工智能的數(shù)據(jù)權(quán)屬,對企業(yè)數(shù)據(jù)資源進(jìn)行知識產(chǎn)權(quán)認(rèn)定,在此基礎(chǔ)上鼓勵企業(yè)加強(qiáng)人工智能數(shù)據(jù)資源的流通共享,推進(jìn)人工智能數(shù)據(jù)集的建設(shè)。
3.促進(jìn)人工智能作品的知識產(chǎn)權(quán)化。依據(jù)著作權(quán)法等對人工智能創(chuàng)作物“獨(dú)創(chuàng)性”進(jìn)行科學(xué)辨別,對于符合條件的創(chuàng)作物應(yīng)予以知識產(chǎn)權(quán)保護(hù),對人工智能創(chuàng)作過程進(jìn)行分解進(jìn)而確認(rèn)知識產(chǎn)權(quán)的歸屬及其權(quán)益分配。
四、人工智能社會就業(yè)問題
人工智能社會就業(yè)問題是指人工智能技術(shù)發(fā)展對現(xiàn)有社會生產(chǎn)結(jié)構(gòu)及分配制度帶來的風(fēng)險(xiǎn)挑戰(zhàn)。主要包括結(jié)構(gòu)性失業(yè)、收入差距加大等問題。
(一)風(fēng)險(xiǎn)挑戰(zhàn)
1.結(jié)構(gòu)性失業(yè)。人工智能技術(shù)廣泛應(yīng)用將導(dǎo)致傳統(tǒng)行業(yè)面臨重構(gòu)、融合,人工智能必將取代眾多傳統(tǒng)職業(yè),不僅包括簡單重復(fù)和流程化的勞動崗位,也包括部分專業(yè)技能性知識工作崗位。
2、新興勞動力不足。人工智能技術(shù)在替代傳統(tǒng)職業(yè)的同時(shí),也在創(chuàng)造一系列全新職業(yè)崗位,尤其是對勞動力的創(chuàng)新、創(chuàng)意、創(chuàng)業(yè)能力提出更高要求,現(xiàn)有社會勞動力構(gòu)成和教育體系尚難以適應(yīng)這一變革,新興職業(yè)勞動力面臨短缺。
3.收入差距加大。人工智能技術(shù)驅(qū)動全社會生產(chǎn)力發(fā)生飛躍,社會財(cái)富向少數(shù)具有人工智能技術(shù)優(yōu)勢的行業(yè)和企業(yè)積聚,對不同行業(yè)、不同企業(yè)、不同崗位的分配關(guān)系構(gòu)成重大影響,勞動者的收入分配差距也將因此加大。
(二)法治應(yīng)對
1.加強(qiáng)人工智能勞動力替代監(jiān)管。加強(qiáng)人工智能技術(shù)應(yīng)用的就業(yè)風(fēng)險(xiǎn)評估,出臺法律法規(guī),對面臨人工智能技術(shù)替代的行業(yè)和職業(yè)進(jìn)行監(jiān)管和救助,保障勞動者尤其是中低端收入階層的工作機(jī)會和權(quán)利,有序推動人工智能勞動力替代和職業(yè)轉(zhuǎn)型,防范社會大規(guī)模失業(yè)風(fēng)險(xiǎn)。
2.加快人工智能新興勞動力培養(yǎng)。面向人工智能發(fā)展趨勢,科學(xué)規(guī)劃基礎(chǔ)教育和職業(yè)教育體系,加大人工智能各類人才的培養(yǎng),全面支持人工智能職業(yè)轉(zhuǎn)型社會機(jī)構(gòu)發(fā)展。
3.面向人工智能開展收入調(diào)節(jié)。兼顧效率與公平,在鼓勵企業(yè)通過人工智能創(chuàng)新獲取高額利潤的同時(shí),加強(qiáng)人工智能時(shí)代社會收入分配調(diào)整,對遭遇人工智能沖擊的傳統(tǒng)行業(yè)勞動力進(jìn)行保護(hù)和救助,提高社會二次分配的合理性與精準(zhǔn)性。
五、人工智能產(chǎn)品法律責(zé)任問題
人工智能產(chǎn)品法律責(zé)任是指人工智能產(chǎn)品或服務(wù)在應(yīng)用過程中,引發(fā)了侵權(quán)或犯罪等行為后法律責(zé)任的認(rèn)定和承擔(dān)問題,主要包括:人工智能法律主體模糊、人工智能責(zé)任界定復(fù)雜。
(一)風(fēng)險(xiǎn)挑戰(zhàn)
1.人工智能產(chǎn)品法律主體多元模糊。人工智能產(chǎn)品的法律主體涉及人工智能產(chǎn)品設(shè)計(jì)者、生產(chǎn)者、運(yùn)營者、使用者等多元主體,人工智能產(chǎn)品的法律主體難以確定。
2.人工智能產(chǎn)品侵權(quán)責(zé)任錯綜復(fù)雜。包括由于人工智能的控制者、使用者操作不當(dāng),造成人工智能侵權(quán);人工智能的控制者、使用者故意利用人工智能進(jìn)行侵權(quán)行為;由于黑客等外部技術(shù)侵入原因?qū)е虑謾?quán);未來人工智能系統(tǒng)具有“自我學(xué)習(xí)”和“自主意識”導(dǎo)致的侵權(quán)行為等。
(二)法治應(yīng)對
1.明確責(zé)任主體。弱人工智能時(shí)代,人工智能產(chǎn)品本身不具有獨(dú)立的法律主體資格,人工智能產(chǎn)品的定位是“工具”,人工智能設(shè)計(jì)者、生產(chǎn)者、運(yùn)營者、使用者承擔(dān)法律主體責(zé)任。
2.科學(xué)分配人工智能侵權(quán)的法律責(zé)任。根據(jù)過錯責(zé)任原則,由產(chǎn)品設(shè)計(jì)者、生產(chǎn)者、運(yùn)營者、使用者按照過錯程度分擔(dān);由于外部技術(shù)侵入造成的侵權(quán),則應(yīng)追究外部技術(shù)侵入者的責(zé)任。對于因技術(shù)限制,而使人工智能產(chǎn)品開發(fā)之初無法預(yù)測到的危險(xiǎn),造成侵權(quán)后果的,應(yīng)當(dāng)引入保險(xiǎn)機(jī)制等方式進(jìn)行責(zé)任分擔(dān)。
-
算法
+關(guān)注
關(guān)注
23文章
4624瀏覽量
93110 -
人工智能
+關(guān)注
關(guān)注
1792文章
47505瀏覽量
239222 -
網(wǎng)絡(luò)攻擊
+關(guān)注
關(guān)注
0文章
331瀏覽量
23490
發(fā)布評論請先 登錄
相關(guān)推薦
評論