作者:馮一帆
隨著社會經(jīng)濟(jì)的發(fā)展,人工智能已廣泛應(yīng)用于當(dāng)今人們的工作與生活之中。然而,人工智能在提供便利的同時,也會產(chǎn)生諸如算法黑箱和信息繭房等風(fēng)險,因此,對其進(jìn)行監(jiān)管十分重要。本文通過梳理歐盟、美國和英國人工智能監(jiān)管制度,來探究域外人工智能監(jiān)管問題。
截至目前,在人工智能監(jiān)管方面,歐盟、美國、英國并未出臺專門的法律法規(guī),但已出現(xiàn)與人工智能相關(guān)的監(jiān)管指導(dǎo)性文件,其中公眾關(guān)注的有歐盟委員會通過的《人工智能法案》(草案)、美國的《人工智能權(quán)利法案藍(lán)圖》與《人工智能風(fēng)險管理框架1.0》、英國發(fā)布的指導(dǎo)性文件《人工智能監(jiān)管政策》與人工智能新監(jiān)管框架的提案《促進(jìn)創(chuàng)新的人工智能監(jiān)管方法》。通過上述政策文件可以發(fā)現(xiàn),目前歐盟、美國、英國在人工智能監(jiān)管的機(jī)構(gòu)設(shè)置、主要特點(diǎn)及具體內(nèi)容等方面均存在一定的差異。
監(jiān)管的機(jī)構(gòu)設(shè)置
歐盟人工智能監(jiān)管的機(jī)構(gòu)設(shè)置。歐盟意識到使用人工智能技術(shù)可能帶來的潛在風(fēng)險,因此,歐盟委員會于2021年發(fā)布的《人工智能條例》預(yù)設(shè)了一個專門的國家監(jiān)督機(jī)構(gòu)來確保法律的適用和實(shí)施。該條例規(guī)定:“對于歐盟機(jī)構(gòu)和組織開發(fā)的人工智能系統(tǒng),由歐洲數(shù)據(jù)保護(hù)監(jiān)督員主管負(fù)責(zé)。”即歐盟委員會提議在每個成員國設(shè)立中央監(jiān)管機(jī)構(gòu)(歐洲人工智能委員會)和國家監(jiān)管機(jī)構(gòu)來對人工智能進(jìn)行監(jiān)管。
美國人工智能監(jiān)管的機(jī)構(gòu)設(shè)置。一般來說,獨(dú)立的監(jiān)管機(jī)構(gòu)作為政府權(quán)力的延伸與補(bǔ)充,其創(chuàng)建的目的通常是對不公平舉措進(jìn)行預(yù)防。目前,美國并未統(tǒng)一設(shè)置人工智能監(jiān)管機(jī)構(gòu),各政府部門通過發(fā)布對現(xiàn)有規(guī)則的解釋與指引或發(fā)布新規(guī)則來對人工智能進(jìn)行監(jiān)管,監(jiān)管主體有聯(lián)邦政府及其相關(guān)部門或機(jī)構(gòu)、州政府及其相關(guān)部門或機(jī)構(gòu)。
英國人工智能監(jiān)管的機(jī)構(gòu)設(shè)置。去中心化的英國制度不會創(chuàng)建新的監(jiān)管機(jī)構(gòu),相反,其將依靠現(xiàn)有的監(jiān)管機(jī)構(gòu)來執(zhí)行,如金融行為監(jiān)管局、信息專員辦公室、競爭與市場管理局、平等與人權(quán)委員會以及藥品和保健產(chǎn)品監(jiān)管機(jī)構(gòu),其中,信息專員辦公室是英國擬建立的人工智能監(jiān)管機(jī)構(gòu)。
監(jiān)管的主要特點(diǎn)
歐盟自2016年起就不斷探索對人工智能技術(shù)應(yīng)用的監(jiān)管體系構(gòu)建,其以歐洲整體層面為視角,致力于構(gòu)建協(xié)調(diào)一致、適合歐洲發(fā)展的人工智能治理體系。歐盟監(jiān)管的政策重點(diǎn)是,以基本人權(quán)為底層邏輯,側(cè)重于保障個人權(quán)利。其治理模式是基于比例原則的風(fēng)險分層治理。監(jiān)管機(jī)制是采取分級監(jiān)管、多種監(jiān)管,并實(shí)行高額的行政處罰,且將公私機(jī)構(gòu)一起納入監(jiān)管范圍。歐盟在人工智能領(lǐng)域的執(zhí)法案例主要涉及反壟斷法和數(shù)據(jù)保護(hù)法,典型案例是谷歌案,2017年,谷歌因存在濫用市場支配地位行為而被歐盟委員會處以24.2億歐元的罰款。
美國側(cè)重于對人工智能在具體應(yīng)用場景下的監(jiān)管,但是尚未出臺統(tǒng)一綜合的人工智能立法。聯(lián)邦政府在為市場提供監(jiān)管參考時通常采用白皮書、指南等形式;地方政府在提供監(jiān)管參考時則多以立法形式。監(jiān)管政策的重點(diǎn)是,以促進(jìn)產(chǎn)業(yè)發(fā)展為主,在治理時側(cè)重于維護(hù)公平和保護(hù)隱私。其治理模式是風(fēng)險評估與風(fēng)險管理框架。監(jiān)管機(jī)制不是單一的依賴于行政監(jiān)管,而是強(qiáng)調(diào)政府部門與私營部門的協(xié)作。并且,為了推動人工智能技術(shù)的發(fā)展,主張企業(yè)進(jìn)行自我監(jiān)管。
在執(zhí)法方面,主要集中在美國聯(lián)邦貿(mào)易委員會與美國版權(quán)局。兩個機(jī)構(gòu)以維護(hù)市場公平競爭和保障人工智能技術(shù)合理使用為執(zhí)法目的,典型案例是Everalbum人臉識別案和《黎明的曙光》版權(quán)案。
英國人工智能監(jiān)管政策的重點(diǎn)是,以促進(jìn)科技發(fā)展為主,治理方面?zhèn)戎赜谥С謩?chuàng)新的監(jiān)管體系。監(jiān)管機(jī)制是統(tǒng)籌協(xié)調(diào)各部門進(jìn)行人工智能監(jiān)管工作,強(qiáng)調(diào)監(jiān)管方式的靈活性,并保持手段和目標(biāo)之間適當(dāng)?shù)谋壤浴T趫?zhí)法方面,英國以保護(hù)用戶隱私數(shù)據(jù)安全為前提,并主要依賴于《英國通用數(shù)據(jù)保護(hù)條例》。然而,英國信息專員辦公室執(zhí)法活躍度并不高,截至目前,僅有極少數(shù)的罰款案件。如2021年的美國人臉識別公司Clearview AI案,因Clearview AI未經(jīng)個人同意自行收集和處理個人生物識別數(shù)據(jù),英國信息專員辦公室以其侵犯英國隱私法律法規(guī)為由,對美國人臉識別公司Clearview AI處以750萬英鎊的罰款,命令Clearview AI停止收集和使用在互聯(lián)網(wǎng)上公開的英國居民個人數(shù)據(jù),并從系統(tǒng)中刪除英國居民的相關(guān)數(shù)據(jù)信息。
監(jiān)管的具體內(nèi)容
歐盟在2023年6月通過了《人工智能法案》的談判授權(quán)草案(以下簡稱《法案》),《法案》的監(jiān)管思路是以橫向監(jiān)管為基礎(chǔ),以風(fēng)險規(guī)制為主要方式,同時兼顧監(jiān)管與發(fā)展的動態(tài)平衡。
《法案》具有以下特征:
其一,根據(jù)風(fēng)險程度的等級對人工智能進(jìn)行分類,其中評估風(fēng)險是關(guān)鍵環(huán)節(jié),分為不可接受的風(fēng)險、高風(fēng)險、有限風(fēng)險與最小風(fēng)險四類,并根據(jù)風(fēng)險程度的不同來匹配不同的監(jiān)管措施。
其二,《法案》提出風(fēng)險管理覆蓋規(guī)制的全過程。歐盟為規(guī)避風(fēng)險,結(jié)合人工智能的特征提出了全生命周期的規(guī)制方案,該方案將覆蓋人工智能產(chǎn)品入市前與入市后,實(shí)現(xiàn)事前、事中、事后的全面規(guī)制。在事前階段,將人工智能的預(yù)期風(fēng)險劃分為四個等級,依據(jù)應(yīng)用場景和風(fēng)險等級的不同,制定與之相對應(yīng)的監(jiān)管舉措;在事中階段,強(qiáng)調(diào)人工智能監(jiān)管沙盒的作用機(jī)制;在事后階段,規(guī)定系統(tǒng)供應(yīng)商應(yīng)針對高風(fēng)險進(jìn)行全程售后監(jiān)測,并及時將故障數(shù)據(jù)上報給國家監(jiān)管部門。
其三,根據(jù)風(fēng)險類型和風(fēng)險程度不同,對規(guī)制措施進(jìn)行動態(tài)調(diào)整。上市前需對人工智能系統(tǒng)進(jìn)行合格評估,主要評估即將上市的系統(tǒng)是否屬于《法案》第二章規(guī)定的各項(xiàng)禁止性做法。若高風(fēng)險人工智能系統(tǒng)在上市后發(fā)生實(shí)質(zhì)性修改,則應(yīng)啟動新的評估程序。上市后需針對人工智能系統(tǒng)制定監(jiān)測計(jì)劃,并對高風(fēng)險系統(tǒng)的監(jiān)測系統(tǒng)進(jìn)行重點(diǎn)監(jiān)測。因該監(jiān)測系統(tǒng)主要收集、分析基于使用人工智能系統(tǒng)而產(chǎn)生的數(shù)據(jù),所以該系統(tǒng)需具備日志記錄功能,以保證相關(guān)數(shù)據(jù)的可追溯性。
美國于2022年10月提出了《人工智能權(quán)利法案藍(lán)圖》(以下簡稱《藍(lán)圖》),《藍(lán)圖》并未明確實(shí)施細(xì)則,而是以公平與隱私為重點(diǎn),要求相關(guān)主體在人工智能系統(tǒng)開發(fā)過程中以堅(jiān)守公平正義為底線,保證系統(tǒng)使用者不受算法歧視和數(shù)據(jù)隱私泄露的侵害。《藍(lán)圖》通過設(shè)立五項(xiàng)基本原則來預(yù)防濫用人工智能技術(shù)帶來的風(fēng)險,即規(guī)避算法歧視;加強(qiáng)隱私數(shù)據(jù)保護(hù);及時履行通知與解釋義務(wù);準(zhǔn)備替補(bǔ)方案與退出機(jī)制;構(gòu)建安全高效系統(tǒng)。2023年1月,美國國家標(biāo)準(zhǔn)與技術(shù)研究院發(fā)布《人工智能風(fēng)險管理框架1.0》(以下簡稱《框架1.0》)。該文件之所以備受關(guān)注,一方面是因?yàn)槠渲铝τ谧R別與人工智能系統(tǒng)部署相關(guān)的各類風(fēng)險,從性質(zhì)上來看是非強(qiáng)制性的指導(dǎo)性文件,可由相關(guān)機(jī)構(gòu)自愿選擇使用,其比約束性法律更容易在應(yīng)用中實(shí)現(xiàn)更新迭代;另一方面是因?yàn)樗怯啥喾嚼嬷黧w共同參與并制定的,具有高可信度和高接受度。
在具體內(nèi)容上,《框架1.0》由一個摘要、兩部分正文和四個附錄所組成,第一部分是基礎(chǔ)信息,包含對人工智能風(fēng)險的界定、框架的管理目標(biāo)和受眾主體等。第二部分是框架核心及具體配置,指出框架核心由四個頂層模塊所組成,即治理、映射、測量和管理,而每個功能項(xiàng)下還分別下設(shè)兩級展開目錄。《框架1.0》采用多元化的治理方案,旨在幫助相關(guān)主體部署人工智能系統(tǒng),減少對人工智能技術(shù)的偏見,增強(qiáng)其可信度并保護(hù)個人數(shù)據(jù)隱私。從而有效規(guī)避人工智能系統(tǒng)帶來的風(fēng)險,幫助諸多行業(yè)及組織將人工智能風(fēng)險管理原則轉(zhuǎn)化為實(shí)踐,以提高相關(guān)主體使用人工智能系統(tǒng)的安全性與可靠性。
英國在人工智能監(jiān)管路徑設(shè)計(jì)方面主張平衡創(chuàng)新與發(fā)展。英國政府于2022年7月頒布的《人工智能監(jiān)管政策》(以下簡稱《政策》),以創(chuàng)建新型人工智能監(jiān)管機(jī)制為目標(biāo)。新型人工智能監(jiān)管機(jī)制將基于人工智能的自適應(yīng)性、自主性等特征來協(xié)調(diào)各部門實(shí)施相應(yīng)的監(jiān)管工作。在監(jiān)管方面,《政策》提出了四項(xiàng)原則:其一,堅(jiān)持具體情形具體監(jiān)管原則。即根據(jù)不同的情形設(shè)置不同的監(jiān)管方案,并明確各監(jiān)管機(jī)構(gòu)所承擔(dān)的監(jiān)管責(zé)任,從而保障監(jiān)管方案的針對性和有效性。其二,遵循協(xié)調(diào)原則。即鼓勵監(jiān)管部門間建立溝通協(xié)調(diào)機(jī)制,從而實(shí)現(xiàn)跨部門的個性化監(jiān)管。其三,鼓勵創(chuàng)新原則。即支持創(chuàng)新監(jiān)管,要求監(jiān)管機(jī)構(gòu)著力解決有明確證據(jù)證明風(fēng)險存在的問題。其四,比例性原則。即在確保監(jiān)管方法與被監(jiān)管行為特點(diǎn)相一致的同時,還應(yīng)確保目標(biāo)與方法之間的比例性。
2023年3月,英國發(fā)布政策報告《促進(jìn)創(chuàng)新的人工智能監(jiān)管方法》(以下簡稱《方法》),《方法》的制定以提供具有創(chuàng)新性、可信賴性的人工智能監(jiān)管框架為目的。《方法》指出,監(jiān)管框架將以以下基本原則為基礎(chǔ),即安全性、可靠性和穩(wěn)健性、透明度和可解釋性、公平性、問責(zé)制和治理以及可爭議性和補(bǔ)救措施。
基于監(jiān)管原則,英國政府計(jì)劃采取以下方法來構(gòu)建一個靈活的監(jiān)管框架:其一,基于人工智能應(yīng)用場景來評估風(fēng)險,靈活調(diào)整監(jiān)管;其二,應(yīng)重點(diǎn)關(guān)注人工智能應(yīng)用導(dǎo)致的真實(shí)、可識別和不可接受的風(fēng)險;其三,制定針對人工智能特征的跨部門原則,以保障監(jiān)管框架的一致性;其四,通過不斷審查監(jiān)管方法來保持監(jiān)管方法的適應(yīng)性。
編輯:黃飛
?
評論