人工智能正以出乎想象的速度走進(jìn)我們的生活,滲透到了制造、家居、金融、交通、安防、醫(yī)療、物流等各行各業(yè)。據(jù)預(yù)測(cè),2018年全球AI產(chǎn)業(yè)市場(chǎng)規(guī)模將逼近2700億元;2020年全球市場(chǎng)規(guī)模將達(dá)4000億元;至2025年,全球范圍內(nèi)人工智能產(chǎn)業(yè)收入的年均復(fù)合增長(zhǎng)率將大幅提升,達(dá)到57%以上。
誠(chéng)然,人工智能的飛速發(fā)展一定程度上改變了人們的生活,但與此同時(shí),由于人工智能尚處于初期發(fā)展階段,該領(lǐng)域的安全、倫理、隱私的政策、法律和標(biāo)準(zhǔn)問(wèn)題引起人們的日益關(guān)注。具備超快學(xué)習(xí)能力的人工智能是否將進(jìn)化的比人類還要先進(jìn)?是否有一天將擺脫人類的控制?一旦出現(xiàn)人機(jī)情感危機(jī)問(wèn)題應(yīng)如何解決?人工智能是否應(yīng)該作為法律意義上的人承擔(dān)事故責(zé)任?……諸如此類的問(wèn)題層出不窮,使得人們?cè)谙硎苋斯ぶ悄軒?lái)的便利的同時(shí),也難掩內(nèi)心的恐慌。
就人工智能技術(shù)而言,安全、倫理和隱私問(wèn)題直接影響人們與人工智能工具交互經(jīng)驗(yàn)中對(duì)人工智能技術(shù)的信任。如果不能消除人們內(nèi)心的懷疑和忌憚,必將影響人工智能技術(shù)的發(fā)展。
人工智能的安全問(wèn)題不容忽視
人工智能最大的特征是能夠?qū)崿F(xiàn)無(wú)人類干預(yù)的,基于知識(shí)并能夠自我修正地自動(dòng)化運(yùn)行。在開啟人工智能系統(tǒng)后,人工智能系統(tǒng)的決策不再需要操控者進(jìn)一步的指令,這種決策可能會(huì)產(chǎn)生人類預(yù)料不到的結(jié)果。設(shè)計(jì)者和生產(chǎn)者在開發(fā)人工智能產(chǎn)品的過(guò)程中可能并不能準(zhǔn)確預(yù)知某一產(chǎn)品會(huì)存在的可能風(fēng)險(xiǎn)。因此,對(duì)于人工智能的安全問(wèn)題不容忽視。
由于人工智能的程序運(yùn)行并非公開可追蹤,其擴(kuò)散途徑和速度也難以精確控制。在無(wú)法利用已有傳統(tǒng)管制技術(shù)的條件下,想要保障人工智能的安全,必須另辟蹊徑,保證人工智能技術(shù)本身及在各個(gè)領(lǐng)域的應(yīng)用都遵循人類社會(huì)所認(rèn)同的倫理原則。
其中應(yīng)特別關(guān)注的是隱私問(wèn)題,因?yàn)槿斯ぶ悄艿陌l(fā)展伴隨著越來(lái)越多的個(gè)人數(shù)據(jù)被記錄和分析,而在這個(gè)過(guò)程中保障個(gè)人隱私則是社會(huì)信任能夠增加的重要條件??傊⒁粋€(gè)令人工智能技術(shù)造福于社會(huì)、保護(hù)公眾利益的政策、法律和標(biāo)準(zhǔn)化環(huán)境,是人工智能技術(shù)持續(xù)、健康發(fā)展的重要前提。
必須設(shè)定人工智能技術(shù)的倫理要求
人工智能是人類智能的延伸,也是人類價(jià)值系統(tǒng)的延伸。在其發(fā)展的過(guò)程中,應(yīng)當(dāng)包含對(duì)人類倫理價(jià)值的正確考量。設(shè)定人工智能技術(shù)的倫理要求,要依托于社會(huì)和公眾對(duì)人工智能倫理的深入思考和廣泛共識(shí),并遵循一些共識(shí)原則:
一是人類利益原則,即人工智能應(yīng)以實(shí)現(xiàn)人類利益為終極目標(biāo)。這一原則體現(xiàn)對(duì)人權(quán)的尊重、對(duì)人類和自然環(huán)境利益最大化以及降低技術(shù)風(fēng)險(xiǎn)和對(duì)社會(huì)的負(fù)面影響。在此原則下,政策和法律應(yīng)致力于人工智能發(fā)展的外部社會(huì)環(huán)境的構(gòu)建,推動(dòng)對(duì)社會(huì)個(gè)體的人工智能倫理和安全意識(shí)教育,讓社會(huì)警惕人工智能技術(shù)被濫用的風(fēng)險(xiǎn)。此外,還應(yīng)該警惕人工智能系統(tǒng)作出與倫理道德偏差的決策。二是責(zé)任原則,即在技術(shù)開發(fā)和應(yīng)用兩方面都建立明確的責(zé)任體系,以便在技術(shù)層面可以對(duì)人工智能技術(shù)開發(fā)人員或部門問(wèn)責(zé),在應(yīng)用層面可以建立合理的責(zé)任和賠償體系。在責(zé)任原則下,在技術(shù)開發(fā)方面應(yīng)遵循透明度原則;在技術(shù)應(yīng)用方面則應(yīng)當(dāng)遵循權(quán)責(zé)一致原則。
為個(gè)人隱私提供更強(qiáng)有力的保護(hù)
人工智能的近期發(fā)展是建立在大量數(shù)據(jù)的信息技術(shù)應(yīng)用之上,不可避免地涉及到個(gè)人信息的合理使用問(wèn)題,因此對(duì)于隱私應(yīng)該有明確且可操作的定義。人工智能技術(shù)的發(fā)展也讓侵犯?jìng)€(gè)人隱私的行為更為便利,因此相關(guān)法律和標(biāo)準(zhǔn)應(yīng)該為個(gè)人隱私提供更強(qiáng)有力的保護(hù)。
此外,人工智能技術(shù)的發(fā)展使得政府對(duì)于公民個(gè)人數(shù)據(jù)信息的收集和使用更加便利。大量個(gè)人數(shù)據(jù)信息能夠幫助政府各個(gè)部門更好地了解所服務(wù)的人群狀態(tài),確保個(gè)性化服務(wù)的機(jī)會(huì)和質(zhì)量。但隨之而來(lái)的是,政府部門和政府工作人員個(gè)人不恰當(dāng)使用個(gè)人數(shù)據(jù)信息的風(fēng)險(xiǎn)和潛在的危害應(yīng)當(dāng)?shù)玫阶銐虻闹匾暋?/p>
人工智能語(yǔ)境下的個(gè)人數(shù)據(jù)的獲取和知情同意應(yīng)該重新進(jìn)行定義。首先,相關(guān)政策、法律和標(biāo)準(zhǔn)應(yīng)直接對(duì)數(shù)據(jù)的收集和使用進(jìn)行規(guī)制,而不能僅僅征得數(shù)據(jù)所有者的同意;其次,應(yīng)當(dāng)建立實(shí)用、可執(zhí)行的、適應(yīng)于不同使用場(chǎng)景的標(biāo)準(zhǔn)流程以供設(shè)計(jì)者和開發(fā)者保護(hù)數(shù)據(jù)來(lái)源的隱私;再次,對(duì)于利用人工智能可能推導(dǎo)出超過(guò)公民最初同意披露的信息的行為應(yīng)該進(jìn)行規(guī)制。最后,政策、法律和標(biāo)準(zhǔn)對(duì)于個(gè)人數(shù)據(jù)管理應(yīng)該采取延伸式保護(hù),鼓勵(lì)發(fā)展相關(guān)技術(shù),探索將算法工具作為個(gè)體在數(shù)字和現(xiàn)實(shí)世界中的代理人。
上文所涉及的安全、倫理和隱私問(wèn)題是人工智能發(fā)展面臨的挑戰(zhàn)。安全問(wèn)題是讓技術(shù)能夠持續(xù)發(fā)展的前提。技術(shù)的發(fā)展給社會(huì)信任帶來(lái)了風(fēng)險(xiǎn),如何增加社會(huì)信任,讓技術(shù)發(fā)展遵循倫理要求,特別是保障隱私不會(huì)被侵犯是亟需解決的問(wèn)題。為此,需要制訂合理的政策、法律、標(biāo)準(zhǔn)基礎(chǔ),并與國(guó)際社會(huì)協(xié)作。
-
人工智能
+關(guān)注
關(guān)注
1791文章
47314瀏覽量
238653
原文標(biāo)題:【今日頭條】當(dāng)“機(jī)”智過(guò)人成為現(xiàn)實(shí) 我們的恐慌要如何消除?
文章出處:【微信號(hào):ChinaAET,微信公眾號(hào):電子技術(shù)應(yīng)用ChinaAET】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論