國際觀察 | 歐盟、美國和日本人工智能治理模式
2024-06-15 09:37:00 來源:本站 瀏覽:259
人工智能的出現(xiàn)大大提高了數(shù)字時代的社會生產(chǎn)力,但人工智能也引發(fā)了一系列數(shù)據(jù)、倫理和社會問題。為此,多國政府頒布了人工智能相關(guān)法律法規(guī)。由于法律傳統(tǒng)、人工智能技術(shù)、政策導(dǎo)向等因素的不同,不同國家和地區(qū)的人工智能治理模式存在差異。歐盟、美國和日本的人工智能治理模式各有特色:歐盟呈現(xiàn)以倫理優(yōu)先為導(dǎo)向的集中式治理模式;美國呈現(xiàn)以創(chuàng)新優(yōu)先為導(dǎo)向的分散式治理模式;日本則呈現(xiàn)以技術(shù)發(fā)展為主導(dǎo)的非約束性軟法治理模式。雖然人工智能治理路徑各具特點,但謀求發(fā)展與安全、平衡促進與規(guī)制是一致性目標(biāo)。歐盟:以倫理優(yōu)先為導(dǎo)向集中式治理在治理理念方面,歐盟的人工智能治理模式堅持倫理優(yōu)先,主張在促進人工智能發(fā)展與創(chuàng)新的同時,防范人工智能風(fēng)險,確保公民基本權(quán)利和安全。2018年12月,歐盟委員會發(fā)布了《人工智能協(xié)調(diào)計劃》,明確提出將歐盟建設(shè)成為開發(fā)和部署前沿性、合倫理性及安全性的全球人工智能治理領(lǐng)導(dǎo)者目標(biāo),并在全球范圍內(nèi)推廣倫理優(yōu)先的治理方法。2019年4月,歐盟委員會出臺《人工智能倫理準(zhǔn)則》,確定了人工智能治理的尊重人類尊嚴(yán)、防止傷害、公平和可解釋性四項倫理原則,并提出了實現(xiàn)這些原則的七項要求,即應(yīng)有能動性和監(jiān)督能力、安全性、隱私數(shù)據(jù)管理、透明度、包容性、社會福祉和問責(zé)機制。2023年6月,歐洲議會通過《人工智能法案》,主張人工智能應(yīng)當(dāng)符合人類倫理,不應(yīng)背離人類基本道德和價值觀。在治理架構(gòu)方面,歐盟采取自上而下的垂直治理架構(gòu)。歐盟以《通用數(shù)據(jù)保護條例》(以下簡稱《條例》)為基礎(chǔ),形成了從歐盟到成員國再到企業(yè)層面的垂直治理體系。具體而言,在歐盟層面,設(shè)立歐盟數(shù)據(jù)保護委員會和歐洲數(shù)據(jù)保護專員公署,負(fù)責(zé)數(shù)據(jù)治理和協(xié)調(diào),確保《條例》在成員國中得到一致執(zhí)行。在國家層面,每個成員國在域內(nèi)設(shè)立專門的數(shù)據(jù)治理機構(gòu),如丹麥的數(shù)據(jù)監(jiān)察局和法國的國家信息與自由委員會,負(fù)責(zé)監(jiān)督《條例》在本國的實施情況,并對相關(guān)事件進行深入調(diào)查。在企業(yè)層面,企業(yè)、公共機構(gòu)等設(shè)立數(shù)據(jù)保護官,負(fù)責(zé)監(jiān)督機構(gòu)內(nèi)部對《條例》義務(wù)的履行情況,并與數(shù)據(jù)治理機構(gòu)進行合作。在治理強度方面,歐盟治理模式較為嚴(yán)格,對企業(yè)的數(shù)據(jù)保護和隱私要求較高,企業(yè)擁有的容錯空間較少。為了科學(xué)且系統(tǒng)地規(guī)制人工智能風(fēng)險,歐盟提出了分類管理的方法,并設(shè)立了監(jiān)管沙盒、高風(fēng)險人工智能系統(tǒng)數(shù)據(jù)庫,以平衡風(fēng)險規(guī)制與激勵發(fā)展的訴求。此外,歐盟《人工智能法案》為人工智能系統(tǒng)開發(fā)者和服務(wù)提供者設(shè)定了一系列義務(wù),主要包括:識別和減少對健康、安全、權(quán)利、環(huán)境、民主和法治的可預(yù)見風(fēng)險;僅使用受適當(dāng)數(shù)據(jù)治理措施約束的數(shù)據(jù)集;設(shè)計、開發(fā)基礎(chǔ)模型以實現(xiàn)適當(dāng)性能;利用公布后的標(biāo)準(zhǔn)設(shè)計、開發(fā)基礎(chǔ)模型,減少資源浪費等。美國:以創(chuàng)新優(yōu)先為導(dǎo)向分散式治理在治理理念方面,美國人工智能治理模式堅持創(chuàng)新優(yōu)先,強調(diào)維護和促進人工智能技術(shù)的創(chuàng)新發(fā)展。從2011年美國“國家機器人計劃”、2016年《美國機器人發(fā)展路線圖——從互聯(lián)網(wǎng)到機器人》《國家人工智能研究和發(fā)展戰(zhàn)略計劃》,到2023年《國家人工智能研發(fā)戰(zhàn)略計劃》,均鼓勵人工智能創(chuàng)新發(fā)展、高效競爭。2023年10月30日,美國總統(tǒng)拜登簽署頒布《關(guān)于安全、可靠、可信地開發(fā)和使用人工智能的行政命令》,明確了美國發(fā)展的重要方向是人工智能。作為目前美國最為完善的人工智能行政規(guī)范,該行政令意在根據(jù)風(fēng)險等級和影響領(lǐng)域,綜合利用“標(biāo)準(zhǔn)+測試”“最佳實踐”等治理手段,確立人工智能安全的新標(biāo)準(zhǔn),促進創(chuàng)新和競爭,確保美國在人工智能技術(shù)和產(chǎn)業(yè)領(lǐng)域的全球領(lǐng)先地位。在治理架構(gòu)方面,美國人工智能治理架構(gòu)呈現(xiàn)分散的特點。一方面,美國采用分散式治理架構(gòu),各州擁有獨立的立法權(quán)和執(zhí)法權(quán),可以獨立制定和實施自己的法律。在數(shù)據(jù)治理規(guī)則上,聯(lián)邦政府傾向于行業(yè)主導(dǎo)的模式,而州政府則采取了更為綜合性的立法方式,如《加州消費者隱私法》和《加州隱私權(quán)法》等。分散式治理架構(gòu)使得美國人工智能治理架構(gòu)兼具靈活性和高效率。另一方面,治理架構(gòu)具有多部門協(xié)同的特點。美國的人工智能治理涉及多個聯(lián)邦部門和機構(gòu),如白宮科技政策辦公室、消費者金融保護局、司法部、聯(lián)邦貿(mào)易委員會等,相關(guān)部門在各領(lǐng)域內(nèi)負(fù)責(zé)審查和監(jiān)管人工智能技術(shù)的風(fēng)險和應(yīng)用。在治理強度方面,美國模式呈現(xiàn)企業(yè)友好型和弱治理特征,給予企業(yè)更多的容錯空間和創(chuàng)新自由。2023年7月21日、9月12日,拜登政府先后召集15家人工智能領(lǐng)軍企業(yè),共同作出自愿性承諾,旨在提升人工智能系統(tǒng)和產(chǎn)品的安全性和可信度。與歐盟的嚴(yán)格治理模式相比,美國多數(shù)州的《消費者數(shù)據(jù)保護法》賦予了中小企業(yè)一定的豁免權(quán),減少了中小企業(yè)的合規(guī)負(fù)擔(dān)。同時,諸如《加州消費者隱私法》等相關(guān)法律并沒有對數(shù)據(jù)控制者和處理者的義務(wù)進行嚴(yán)格和系統(tǒng)的規(guī)定。盡管2023年美國參眾兩院已召開超過30場關(guān)于人工智能的聽證會,同時聯(lián)邦貿(mào)易委員會、商務(wù)部、管理和預(yù)算辦公室、國防部等各部門及其下轄機構(gòu)也圍繞人工智能發(fā)布了各種研判和報告,但這些報告仍側(cè)重于原則性要求的闡述,尚未形成具體、可執(zhí)行的義務(wù)性內(nèi)容。日本:以技術(shù)發(fā)展為主導(dǎo)非約束性軟法治理在治理理念方面,日本人工智能治理模式以優(yōu)先發(fā)展技術(shù)為前提,主要采用政策性文件等方式對人工智能進行規(guī)范。日本確立人工智能治理遵循以人類為中心、教育、隱私保護、確保安全、公平競爭、問責(zé)制和透明度、創(chuàng)新等7個原則。2023年8月,日本政府宣布制定《人工智能指導(dǎo)方針》,旨在為人工智能企業(yè)的研發(fā)與應(yīng)用提供參考,以期促進人工智能企業(yè)自愿采取行動,實現(xiàn)“以人類為中心的人工智能社會”愿景。在治理架構(gòu)方面,日本建立了多元化、多層次、多主體的治理架構(gòu)。在治理主體上,日本納入了政府、行業(yè)、企業(yè)以及社會等多元主體。其中,政府以引導(dǎo)為主,通過民主討論的方式凝聚共識,推動政策實施;行業(yè)協(xié)會與相關(guān)經(jīng)濟團體協(xié)同參與監(jiān)管,確保政策的落地與執(zhí)行;企業(yè)則提供詳盡的技術(shù)信息,明確促進人工智能技術(shù)發(fā)展的具體要求,同時積極發(fā)揮自主規(guī)范與自我監(jiān)督的效能;社會團體作為第四方力量,從多元化視角提出具體治理需求。在制度架構(gòu)上,日本構(gòu)建了包括原則層、規(guī)則層、監(jiān)督層以及執(zhí)法層的多層級架構(gòu)。原則層設(shè)定人工智能倫理治理的目標(biāo),規(guī)則層確立實現(xiàn)上述目標(biāo)的路徑,監(jiān)督層引導(dǎo)企業(yè)自主規(guī)范,執(zhí)法層對違規(guī)行為進行追責(zé)。目前,日本人工智能治理仍以軟法為主,缺乏強制力,一定程度上影響了治理效果。在治理強度方面,日本對人工智能的規(guī)制力度不大。日本政府通過建立獎優(yōu)懲劣的激勵機制,增強企業(yè)與政府之間的合作,為企業(yè)營造了寬松發(fā)展環(huán)境。首先,政府邀請在人工智能領(lǐng)域占據(jù)領(lǐng)先地位的企業(yè)代表參與規(guī)則制定,既確保所制定的規(guī)則具有前瞻性,又增強了企業(yè)履行規(guī)則的責(zé)任感。其次,政府每年對企業(yè)開展監(jiān)管調(diào)查,表彰在實踐中表現(xiàn)優(yōu)秀的企業(yè),以此帶動行業(yè)整體發(fā)展。最后,行業(yè)團體為符合條件的優(yōu)秀企業(yè)頒發(fā)合格證書。例如,2022年4月實行的“人工智能云服務(wù)的安全、信賴信息公開認(rèn)證制度”是專門對云服務(wù)運營商安全、信賴信息公開現(xiàn)狀認(rèn)證的制度。通過認(rèn)證的企業(yè)可以提高客戶對其的認(rèn)知度,這種認(rèn)證在未來很可能會成為市場準(zhǔn)入的重要標(biāo)準(zhǔn)或先決條件。歐盟、美國和日本在人工智能治理問題上采取了不同的模式,反映了各自的政治制度、文化傳統(tǒng)和經(jīng)濟發(fā)展需求。域外人工智能治理實踐表明,人工智能治理模式的構(gòu)建應(yīng)立足自身,正確把握國情差異性,在處理好技術(shù)創(chuàng)新與風(fēng)險管理的同時,促進人工智能產(chǎn)業(yè)的健康發(fā)展。