近日,由歐盟委員會(huì)任命的人工智能高級(jí)專家小組(AIHLEG)發(fā)布了 AI 開發(fā)和使用的道德草案。從到 2019 年 1 月 18 日為對(duì)外開放征求意見的期間,預(yù)計(jì)到了 2019 年 3 月,AI HLEG 將向歐盟委員會(huì)提交最終版本的指導(dǎo)方針,以及提出如何推進(jìn)這項(xiàng)工作的建議,此外,歐盟委員會(huì)目前也正在向愿意分享相同價(jià)值觀的所有非歐盟國(guó)家開放合作。
該草案提出了具體的框架,第一章闡述 AI 必須遵守的基本權(quán)利和價(jià)值觀,以確保 AI 符合道德目的;第二章指出實(shí)現(xiàn)可信賴 AI 的指導(dǎo)方針,同時(shí)兼顧道德目的和技術(shù)穩(wěn)健性,并列出可信賴 AI 的要求,包括技術(shù)和非技術(shù)方法;第三章則提供了具體但非窮舉的可信賴 AI評(píng)估表。
其中,該草案指出,可信賴的 AI 有兩個(gè)組成要素:一是應(yīng)尊重基本權(quán)利,適用法規(guī)、核心原則和價(jià)值觀,以確?!暗赖履康摹保╡thical purpose);二是兼具技術(shù)魯棒性和可靠性,因?yàn)榧词褂辛己玫囊鈭D,缺乏技術(shù)掌握也會(huì)造成無(wú)意的傷害。另外,AI 技術(shù)必須足夠穩(wěn)健及強(qiáng)大,以對(duì)抗攻擊,以及如果 AI 出現(xiàn)問題,應(yīng)該要有“應(yīng)急計(jì)劃”(fall-back plan),例如在 AI 系統(tǒng)失敗了,必須要求交還由人類接手。
可信賴 AI 的不可為基本原則包括不應(yīng)以任何方式傷害人類;AI 不應(yīng)限制人的自由,即人們不應(yīng)該被 AI 驅(qū)動(dòng)的機(jī)器征服或強(qiáng)迫; AI 應(yīng)該公平使用,不得歧視或誣蔑;AI 應(yīng)透明地運(yùn)作,即人類需要知道 AI 正在開發(fā)的目的,以及如何使用它;AI 應(yīng)該只為個(gè)人和整個(gè)社會(huì)的福祉而發(fā)展。
歐盟委員會(huì)在 2018 年 4 月發(fā)布?xì)W洲人工智能方法(European approach on AI)后,成立了人工智能高級(jí)專家小組,由 52 名來自學(xué)術(shù)界、工業(yè)界和民間社會(huì)的獨(dú)立專家組成,此次的 AI 道德準(zhǔn)則草案第一版是由該高級(jí)專家小組制定。
-
AI
+關(guān)注
關(guān)注
87文章
31097瀏覽量
269427 -
人工智能
+關(guān)注
關(guān)注
1792文章
47409瀏覽量
238923
原文標(biāo)題:歐盟AI道德準(zhǔn)則草案出爐
文章出處:【微信號(hào):robotmagazine,微信公眾號(hào):機(jī)器人技術(shù)與應(yīng)用】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論