英國人工智能新方法詳解
英國科學(xué)、創(chuàng)新和技術(shù)部(DSIT)于2023年3月29日發(fā)布了一份人工智能(AI)白皮書,描述了其監(jiān)管人工智能的新方法。該提案旨在創(chuàng)建一個支持創(chuàng)新的監(jiān)管框架,通過創(chuàng)建與不同部門使用人工智能相關(guān)的風(fēng)險成比例的規(guī)則來促進(jìn)公眾對人工智能的信任。它還承諾建立一個監(jiān)管沙箱,將監(jiān)管者和創(chuàng)新者聚集在一起,讓他們更好地了解監(jiān)管如何影響新興的人工智能技術(shù)。
與歐盟(EU)不同,英國在人工智能方面的做法短期內(nèi)不會專注于新的立法。取而代之的是,它將專注于制定指導(dǎo)方針,賦予監(jiān)管者權(quán)力,并只在必要時采取法定行動。下面先解釋白皮書的核心內(nèi)容,然后再分析其優(yōu)缺點(diǎn)。
一、特定環(huán)境監(jiān)管是什么意思?
根據(jù)英國科學(xué)、創(chuàng)新和技術(shù)部(DSIT)發(fā)布的白皮書,針對具體情況的監(jiān)管側(cè)重于結(jié)果,而不是為整個行業(yè)或技術(shù)制定規(guī)則。針對特定背景的監(jiān)管將基于人工智能的特定用途可能產(chǎn)生的結(jié)果,如醫(yī)療診斷、機(jī)械折舊或服裝退貨,并可以區(qū)分不同部門的背景,如關(guān)鍵基礎(chǔ)設(shè)施或客戶服務(wù)。特定背景的人工智能法規(guī)承認(rèn),特定領(lǐng)域的所有人工智能技術(shù)都有不同程度的風(fēng)險。這種監(jiān)管權(quán)衡了特定人工智能使用的風(fēng)險和放棄人工智能使用而錯過機(jī)會的成本。DSIT認(rèn)為,針對特定背景的人工智能監(jiān)管將有助于英國利用該技術(shù)的好處。
二、英國對AI的定義是什么?
在白皮書中,DSIT將人工智能定義為“具有‘適應(yīng)性’和‘自主性’的產(chǎn)品和服務(wù)。”“在將人工智能定義為適應(yīng)性強(qiáng)時,白皮書旨在解決解釋人工智能邏輯和結(jié)果的困難,因為該技術(shù)基于推斷模式和聯(lián)系進(jìn)行訓(xùn)練和操作,這些模式和聯(lián)系不易被人類理解或其程序員最初的設(shè)想。自主性描述了為人工智能技術(shù)的結(jié)果分配責(zé)任的難度,因為該技術(shù)可以在沒有人類意圖或控制的情況下做出決定。通過關(guān)注適應(yīng)性強(qiáng)和自主的產(chǎn)品和服務(wù),英國政府希望其人工智能定義經(jīng)得起未來考驗,而不是關(guān)注機(jī)器學(xué)習(xí)或大型語言模型(LLM)等特定方法或技術(shù)。
三、英國目前對人工智能的監(jiān)管情況如何?
在英國,各個監(jiān)管機(jī)構(gòu)之間的協(xié)調(diào)和執(zhí)行不一致,包括健康和安全執(zhí)行局、平等和人權(quán)委員會以及競爭和市場管理局,管理人工智能。這種不一致的協(xié)調(diào)是白皮書呼吁全系統(tǒng)協(xié)調(diào)的原因,以澄清誰對跨領(lǐng)域的人工智能風(fēng)險負(fù)責(zé),并避免重復(fù)要求。
一些不同類型的法律和法規(guī)已經(jīng)涵蓋了人工智能,包括2010年《平等法》,以防止根據(jù)受保護(hù)的特征進(jìn)行歧視;《英國通用數(shù)據(jù)保護(hù)條例》公平處理個人數(shù)據(jù);《產(chǎn)品安全法》;電子設(shè)備、醫(yī)療器械和玩具的特定產(chǎn)品立法;和消費(fèi)者權(quán)益法來保護(hù)消費(fèi)者。其他相關(guān)法律包括1998年《人權(quán)法》、《公共部門平等義務(wù)法》、《2018年數(shù)據(jù)保護(hù)法》以及特定部門的公平要求,如《金融行為管理局手冊》。
四、提議的人工智能框架的目標(biāo)是什么?
DSIT將提議的人工智能框架描述為支持創(chuàng)新、相稱、可信、適應(yīng)性強(qiáng)、清晰和協(xié)作。新的監(jiān)管框架將適用于英國經(jīng)濟(jì)的所有部門,依靠與現(xiàn)有立法的互動來實施框架,除非必要,否則不會引入新的法律要求。政府希望通過不立即(如果有的話)引入新的立法來最小化域外影響;但這種方法不會改變現(xiàn)有立法的域外影響。
此外,DSIT稱其監(jiān)管框架有三個目標(biāo):
(1)推動增長和繁榮,使負(fù)責(zé)任的創(chuàng)新更容易,減少監(jiān)管不確定性,并在人工智能領(lǐng)域獲得長期的市場優(yōu)勢。
(2)通過解決人工智能的風(fēng)險和保護(hù)基本價值觀來增加公眾對AI的信任,這反過來將推動AI的采用。
(4)加強(qiáng)英國作為全球人工智能領(lǐng)導(dǎo)者的地位,使其對創(chuàng)新者和投資者保持吸引力,同時最大限度地減少與其他國際方法的跨境摩擦。
這個監(jiān)管框架不會影響與數(shù)據(jù)訪問、計算能力、可持續(xù)性或“內(nèi)容制作者和人工智能開發(fā)者的權(quán)利平衡”有關(guān)的問題。
五、英國監(jiān)管AI的五大原則是什么?
在白皮書中,英國政府重點(diǎn)關(guān)注政府認(rèn)為應(yīng)該管理人工智能的五項原則,以促進(jìn)負(fù)責(zé)任的技術(shù)開發(fā)和使用。這五項原則的應(yīng)用最初將由監(jiān)管者自行決定,隨后可能會有一項法定義務(wù)要求監(jiān)管者適當(dāng)考慮這些原則。
(1)安全性、可靠性和穩(wěn)健性
人工智能應(yīng)用程序應(yīng)該是安全的,可靠的,健壯的,并帶有謹(jǐn)慎管理的風(fēng)險。根據(jù)這一原則,監(jiān)管機(jī)構(gòu)可能會采取措施,確保人工智能在整個生命周期中是安全的;評估人工智能帶來風(fēng)險的可能性,以采取相應(yīng)的措施來管理這些風(fēng)險;并定期測試人工智能系統(tǒng)的功能、彈性和安全性,以創(chuàng)建未來的基準(zhǔn)。
(2)適當(dāng)?shù)耐该鞫群涂山忉屝?/strong>
人工智能創(chuàng)新者和企業(yè)必須適當(dāng)透明,并能夠解釋他們的AI決策過程和風(fēng)險。適當(dāng)水平的透明度和可解釋性被定義為“監(jiān)管者擁有關(guān)于AI系統(tǒng)及其相關(guān)輸入和輸出的足夠信息,以對其他原則產(chǎn)生有意義的影響?!北O(jiān)管機(jī)構(gòu)可能會將產(chǎn)品標(biāo)簽和技術(shù)標(biāo)準(zhǔn)作為收集這些信息的選擇。監(jiān)管者還需要澄清特定人工智能技術(shù)的適當(dāng)和可實現(xiàn)的可解釋程度。
(3)公平
AI應(yīng)該是公平的,不歧視個人或商業(yè)成果,也不損害他們的合法權(quán)利。監(jiān)管機(jī)構(gòu)可能需要使用相關(guān)法律,如《2010年平等法案》、《1998年人權(quán)法》、《公共部門平等義務(wù)》、《英國通用數(shù)據(jù)保護(hù)條例》、《2018年數(shù)據(jù)保護(hù)法案》、《消費(fèi)者和競爭法》以及特定部門的公平要求,制定并發(fā)布適用于其監(jiān)管領(lǐng)域內(nèi)人工智能系統(tǒng)的公平描述。
(4)問責(zé)制和治理
管理AI的監(jiān)管措施需要充分地讓AI生命周期中的適當(dāng)行為者對人工智能的結(jié)果負(fù)責(zé)。監(jiān)管者必須確保對法規(guī)遵從性有明確的預(yù)期,并且可能需要使用治理程序來鼓勵法規(guī)遵從性。DSIT承認(rèn),在AI產(chǎn)品的生命周期中,誰應(yīng)該被分配責(zé)任還不清楚,因此不建議在這個階段進(jìn)行干預(yù)。相反,DSIT將召集專家、技術(shù)人員和律師來考慮未來的適度干預(yù)。
(5)爭議和補(bǔ)救
用戶和其他利益相關(guān)者需要明確的途徑來質(zhì)疑人工智能造成的任何傷害。政府希望監(jiān)管機(jī)構(gòu)澄清現(xiàn)有的途徑,并鼓勵和指導(dǎo)受監(jiān)管的實體,以確保受影響的各方可以通過非正式或正式的渠道明確質(zhì)疑有害的人工智能結(jié)果。
六、在新框架下,監(jiān)管機(jī)構(gòu)將做些什么?
雖然DSIT的白皮書沒有提供監(jiān)管AI技術(shù)的現(xiàn)有監(jiān)管機(jī)構(gòu)的詳盡列表,但所描繪的監(jiān)管框架取決于授權(quán)這些監(jiān)管機(jī)構(gòu)制定針對具體情況和跨部門的人工智能方法。這篇論文解釋說,創(chuàng)建一個新的專門針對AI的監(jiān)管機(jī)構(gòu)會給整個監(jiān)管機(jī)構(gòu)列表帶來更多的復(fù)雜性和混亂。目前AI的監(jiān)管機(jī)構(gòu)包括健康和安全執(zhí)行局、平等和人權(quán)委員會以及競爭和市場管理局,但該列表可以包括白皮書中沒有提到的其他機(jī)構(gòu)。
根據(jù)人工智能的新方法,這些監(jiān)管機(jī)構(gòu)將采取以下措施:
(1)采取相應(yīng)的、支持增長和支持創(chuàng)新的方法,重點(diǎn)關(guān)注特定AI帶來的特定風(fēng)險。
(2)考慮采取相應(yīng)的措施解決優(yōu)先風(fēng)險,考慮由政府或為政府進(jìn)行的風(fēng)險評估。
(3)設(shè)計、實施和執(zhí)行適當(dāng)?shù)谋O(jiān)管要求,將新的AI監(jiān)管原則整合到現(xiàn)有流程中。
(4)制定聯(lián)合指南,以支持AI遵守原則和相關(guān)要求。
(5)考慮工具,如保證技術(shù)和技術(shù)標(biāo)準(zhǔn),如何支持法規(guī)遵從性。
(6)參與政府對框架的監(jiān)測和評估。
七、英國將如何實施這一注重原則的框架?
白皮書中定義的人工智能五項原則將首先在現(xiàn)有法規(guī)中實施,并得到中央政府職能部門的支持。監(jiān)管機(jī)構(gòu)將首先實施這些原則,以適應(yīng)人工智能的背景和使用。監(jiān)管機(jī)構(gòu)還將合作找出實施這些原則的障礙。政府將發(fā)揮核心支持作用,以確保該框架按比例運(yùn)作,并有利于AI創(chuàng)新。
只有在必要的情況下,政府才會出臺新的立法,制定進(jìn)一步的措施,要求監(jiān)管機(jī)構(gòu)適當(dāng)考慮這些原則,即授權(quán)監(jiān)管機(jī)構(gòu)實施與其部門或領(lǐng)域相關(guān)的原則。
八、政府將如何評估其人工智能框架?
政府界定了七項中央職能,這將有助于政府確定框架是否有效,并確定提高清晰度和協(xié)調(diào)的機(jī)會:
(1)監(jiān)控、評估和反饋
政府將通過從行業(yè)、監(jiān)管機(jī)構(gòu)、政府和民間社會收集相關(guān)數(shù)據(jù),評估該框架的跨經(jīng)濟(jì)和特定部門影響。它還將支持和裝備監(jiān)管機(jī)構(gòu),以監(jiān)測和評估制度的內(nèi)部。通過跟蹤框架的有效性、相稱性和對創(chuàng)新的影響,政府希望提供改進(jìn)建議、可能需要額外干預(yù)的情況以及反饋循環(huán)和利益攸關(guān)方參與的必要情況。
(2)支持原則的一致實施
政府將制定和維護(hù)中央監(jiān)管指南,以幫助監(jiān)管機(jī)構(gòu)實施AI原則,確定可能妨礙實施的障礙,并解決監(jiān)管機(jī)構(gòu)解釋原則的不一致和差異。政府將利用這些任務(wù)進(jìn)一步監(jiān)測這些原則的相關(guān)性以及是否需要對其進(jìn)行調(diào)整。
(3)跨部門風(fēng)險評估
政府將建立一個跨經(jīng)濟(jì)和全社會的人工智能風(fēng)險登記冊??绮块T風(fēng)險評估職能將支持監(jiān)管機(jī)構(gòu)的內(nèi)部風(fēng)險評估;監(jiān)控、審查和優(yōu)先處理已知和新的風(fēng)險;明確新風(fēng)險中的責(zé)任;支持監(jiān)管機(jī)構(gòu)之間的合作;確定風(fēng)險覆蓋范圍的差距;并分享風(fēng)險評估的最佳做法。
(4)支持創(chuàng)新者(包括試驗臺和沙箱)
政府將消除創(chuàng)新障礙,最大限度地降低法律和合規(guī)風(fēng)險,以幫助人工智能創(chuàng)新者駕馭監(jiān)管格局。根據(jù)首席科學(xué)顧問Patrick Vallance爵士的建議,政府還將建立一個多監(jiān)管機(jī)構(gòu)的人工智能沙盒。沙盒將測試監(jiān)管框架如何運(yùn)作,以及監(jiān)管機(jī)構(gòu)或政府是否應(yīng)該解決不必要的創(chuàng)新障礙。政府將首先在一個人工智能投資高的行業(yè)試點(diǎn)一個多監(jiān)管機(jī)構(gòu)沙箱,并計劃隨著時間的推移將這一能力擴(kuò)展到更多的行業(yè)。政府傾向于一個沙箱,向參與創(chuàng)新者提供技術(shù)專家和監(jiān)管專家的定制建議,幫助他們克服監(jiān)管障礙。
(5)教育和意識
政府將引導(dǎo)企業(yè)、消費(fèi)者和公眾在AI和AI監(jiān)管領(lǐng)域?qū)Ш?。政府還將鼓勵監(jiān)管機(jī)構(gòu)利用宣傳活動教育AI用戶有關(guān)風(fēng)險。
(6)地平線掃描
政府將監(jiān)測AI的新興趨勢和機(jī)遇,積極召集利益相關(guān)者討論人工智能監(jiān)管框架如何支持AI創(chuàng)新和應(yīng)對AI風(fēng)險,并支持進(jìn)一步的AI風(fēng)險評估。
九、確保與國際監(jiān)管框架的互操作性
政府將支持英國與國際合作伙伴在人工智能監(jiān)管方面的合作,方法是監(jiān)測英國原則與全球方法的一致性,并利用跨境協(xié)調(diào)使英國框架與國際司法管轄區(qū)保持一致,并創(chuàng)建監(jiān)管互操作性。
DSIT希望這一新的監(jiān)管框架的適應(yīng)性和相稱性將有助于它為面向未來的AI監(jiān)管設(shè)定全球規(guī)范。例如,基礎(chǔ)模型是通用AI,它針對各種任務(wù)對大量數(shù)據(jù)進(jìn)行訓(xùn)練。因為確定基礎(chǔ)模型如何工作、它們的能力和它們的風(fēng)險具有挑戰(zhàn)性,所以框架對中心功能的使用以及對保證技術(shù)和技術(shù)標(biāo)準(zhǔn)等工具的潛在使用可能有助于最小化它們的潛在風(fēng)險,同時允許基礎(chǔ)模型進(jìn)入英國市場。DSIT還承認(rèn),基礎(chǔ)模型生命周期中的責(zé)任問題將越來越重要,因為模型中的任何缺陷都會迅速影響到所有下游產(chǎn)品。
然而,白皮書認(rèn)為,對有限責(zé)任公司和其他基金會模式采取具體的監(jiān)管行動為時過早。干預(yù)過快可能會妨礙英國在各種用例中采用這些模型的能力。相反,英國將監(jiān)測和評估LLM的影響,探索標(biāo)準(zhǔn)和其他工具是否能夠支持負(fù)責(zé)任的創(chuàng)新,然后讓監(jiān)管者與行動者合作并對模式發(fā)展做出反應(yīng)。對于有限責(zé)任公司,白皮書建議監(jiān)管機(jī)構(gòu)可以就適當(dāng)?shù)耐该鞫却胧┌l(fā)布指導(dǎo)意見。英國政府將監(jiān)測和評估這些模型,直到監(jiān)管機(jī)構(gòu)和標(biāo)準(zhǔn)可以干預(yù),以支持良好的治理和實踐。
十、英國想要可信人工智能的工具
DSIT認(rèn)為,可信人工智能的工具對于負(fù)責(zé)任和安全地采用AI至關(guān)重要。白皮書建議將這些工具分為兩類,以幫助符合其提議的監(jiān)管框架。
第一類包括人工智能保證技術(shù)——包括影響評估、審計、性能測試和正式驗證方法——可能有助于英國AI保證行業(yè)的發(fā)展。這些技術(shù)將測量、評估和描述AI在其整個生命周期中的可信度。這些技術(shù)沒有具體說明,但政府將在2023年春季推出一個投資組合。
第二類由AI技術(shù)標(biāo)準(zhǔn)組成,這些標(biāo)準(zhǔn)提供了跨供應(yīng)商的共同理解,當(dāng)實現(xiàn)時,表明符合框架的原則。AI技術(shù)標(biāo)準(zhǔn)將包括風(fēng)險管理、透明度、偏見、安全性和穩(wěn)健性方面的通用基準(zhǔn)和實用指南。政府將與行業(yè)、國際合作伙伴、英國合作伙伴和英國AI標(biāo)準(zhǔn)中心合作。
英國政府表示,它將對人工智能技術(shù)標(biāo)準(zhǔn)采用分層方法:
第一層將提供跨監(jiān)管權(quán)限的一致性和共同基礎(chǔ)。監(jiān)管機(jī)構(gòu)將尋求采用非特定部門的標(biāo)準(zhǔn),并可用于支持五項AI原則的跨部門實施。
第二層將使治理實踐適應(yīng)特定背景下AI的特定風(fēng)險,以便監(jiān)管機(jī)構(gòu)可以鼓勵采用針對偏見和透明度等問題的新標(biāo)準(zhǔn)。
最后,監(jiān)管機(jī)構(gòu)可以在適當(dāng)?shù)臅r候鼓勵采用特定部門的技術(shù)標(biāo)準(zhǔn),以支持遵守特定部門的監(jiān)管要求。
十一、關(guān)于人工智能的全球?qū)υ?/strong>
英國計劃繼續(xù)與國際伙伴密切合作,支持AI帶來的積極的全球機(jī)遇,并防范全球風(fēng)險和危害。政府打算繼續(xù)其國際合作努力,以了解、影響和加強(qiáng)全球監(jiān)管和非監(jiān)管發(fā)展。此外,政府將繼續(xù)采取包容性的方法,幫助伙伴國家建立對AI的認(rèn)識和能力,并支持其他國家實施負(fù)責(zé)任和可持續(xù)的AI監(jiān)管。
英國還計劃繼續(xù)在經(jīng)濟(jì)合作與發(fā)展組織(OECD)AI治理工作組中發(fā)揮積極作用;AI全球伙伴關(guān)系;G7;歐洲委員會AI委員會;聯(lián)合國教育、科學(xué)及文化組織;以及國際標(biāo)準(zhǔn)化組織和自主智能系統(tǒng)倫理開放社區(qū)等全球標(biāo)準(zhǔn)組織。英國將繼續(xù)與歐盟、歐盟成員國、美國、加拿大、新加坡、日本、澳大利亞、以色列、挪威和瑞士以及其他國家政府合作,發(fā)展它們的人工智能方法。
十二、英國AI新監(jiān)管框架的下一步計劃
在接下來的六個月里,英國政府和DSIT將與關(guān)鍵利益相關(guān)方——如公共部門、監(jiān)管機(jī)構(gòu)和民間社會——就該框架進(jìn)行磋商。然后,政府將公布其回應(yīng),并發(fā)布監(jiān)管機(jī)構(gòu)實施該框架的跨部門原則和初步準(zhǔn)則。政府還將發(fā)布AI監(jiān)管路線圖,以建立該框架的中央政府職能,并試點(diǎn)新的AI沙盒。最后,政府將委托研究項目對潛在的合規(guī)障礙,生命周期問責(zé)制,如何實施該框架,以及報告AI風(fēng)險的最佳做法。
在未來6至12個月內(nèi),政府和DSIT將建立舉措和伙伴關(guān)系,以履行該框架的核心職能。政府還將鼓勵監(jiān)管機(jī)構(gòu)發(fā)布指導(dǎo)意見,幫助解釋人工智能原則將如何在其職權(quán)范圍內(nèi)適用。此外,政府將就中央監(jiān)測和評估職能如何運(yùn)作提出建議,并公開這些建議供利益攸關(guān)方協(xié)商。最后,政府將繼續(xù)發(fā)展其多監(jiān)管者沙箱。
12個月后,政府將履行框架的核心職能。它還將鼓勵仍需要發(fā)布指導(dǎo)意見的監(jiān)管機(jī)構(gòu),發(fā)布跨經(jīng)濟(jì)體AI風(fēng)險登記冊,并在測試試點(diǎn)沙盒后開發(fā)其監(jiān)管沙盒。此外,政府將公布第一套報告,評估AI原則如何發(fā)揮作用以及中央職能如何發(fā)揮作用。這些報告將分析原則的管理特征——實施是否有利于創(chuàng)新、相稱、可信、適應(yīng)性強(qiáng)、清晰和協(xié)作——同時還考慮新迭代或法定干預(yù)的需要。最后,政府將更新其核心職能的人工智能監(jiān)管路線圖,以確定它是否能長期發(fā)揮作用,或者獨(dú)立機(jī)構(gòu)是否更有效。
英國人工智能的新監(jiān)管框架有四個關(guān)鍵優(yōu)勢,將有利于其科技行業(yè)。
(1)焦點(diǎn)較窄
該框架的范圍狹隘地聚焦于AI成果,而不是AI產(chǎn)品。它使用了AI的靈活定義,定義了AI的特征——無論它們是自適應(yīng)的還是自主的——而不是具體的算法特征或產(chǎn)品類型。這種狹窄的焦點(diǎn)和靈活的定義將使英國能夠更好地應(yīng)對新的風(fēng)險,即使技術(shù)在快速發(fā)展。
(2)監(jiān)管沙盒
創(chuàng)建一個多監(jiān)管機(jī)構(gòu)的AI沙箱將允許創(chuàng)新者與監(jiān)管機(jī)構(gòu)合作,開發(fā)最佳實踐,幫助AI產(chǎn)品安全上市。監(jiān)管沙盒將有助于增加各個部門監(jiān)管機(jī)構(gòu)的專業(yè)知識,以便他們能夠支持未來AI創(chuàng)新的開發(fā)和采用。
(3)沒有新的立法
通過不引入新的立法,而是專注于原則框架和監(jiān)管者授權(quán),英國的人工智能方法使用寬松的監(jiān)管來支持AI的發(fā)展和采用,并解決特定部門和跨部門的監(jiān)管問題。當(dāng)輔之以注重結(jié)果或傷害的方法時,寬松監(jiān)管可以識別和糾正有害影響,而不會對無害行為施加成本或懲罰。一個明顯的例子是,白皮書承認(rèn)現(xiàn)在干預(yù)基礎(chǔ)模型還為時過早,因為現(xiàn)在的任何干預(yù)都可能對英國采用新技術(shù)及其應(yīng)用產(chǎn)生不利影響。
(4)國際意識
承認(rèn)英國不是唯一關(guān)注AI的國家將有利于英國提升其人工智能和技術(shù)中心地位的能力。政府對國際協(xié)調(diào)的承諾將減少英國科技公司進(jìn)入其他市場的障礙。隨著其他地區(qū)和國家磨練他們的AI框架,即歐盟的人工智能法案和美國的人工智能權(quán)利法案,這種前景將是至關(guān)重要的。為了提高效率,英國決策者可能不得不花費(fèi)大量的國際政治資本,特別是為了抵御歐盟的監(jiān)管壓力。
編輯:黃飛
評論
查看更多