01 全球AI監(jiān)管趨勢
全球范圍內,AI的開發(fā)和使用正在加速。政策制定者正密集開展工作,以確保AI作為一個整體,促進其服務經(jīng)濟和社會目標的同時,降低其風險。從全球看,AI監(jiān)管表現(xiàn)為以下六方面的趨勢。
趨勢一、以OECD的AI原則作為政策制定的基準
OECD和G20于2019年通過的AI原則,成為政府和組織建構以人為本的可信AI方法的全球基準。這些原則于2016年開始的有關AI使用應遵循的核心道德原則的公開討論之后制定,原則涵蓋了諸如確保AI的好處在社會廣泛傳播、AI不破壞諸如保護人權等社會保障措施,以及使用AI的組織是否已建立適當?shù)闹卫砗蛦栘熤贫鹊确矫。下表是OECD的AI原則及其對政府政策制定的建議。
例如,歐盟的AI法案要求與OECD的問責和AI的健全、安全使用原則一致,并在OECD原則基礎上更進一步,指定了AI應用的“紅線”,包括禁止使用AI進行基于社會行為或個人特征的社會評分的應用。盡管我國不是OECD國家,但OECD原則為包括我國在內的G20國家領導人于2019年6月背書的G20 AI原則提供了基礎。
趨勢二、采取基于風險的AI方法制定政策
各國正專注于將AI原則付諸實踐,采用的方法從自愿指導到強制性規(guī)則不等,但都在尋求基于風險的AI方法。2023年4月,G7的數(shù)字化和技術部長表達了統(tǒng)一AI的觀點,呼吁應基于AI活動帶來的風險制定和調整相關政策和法規(guī),在鼓勵負責任的AI發(fā)展使用和降低AI風險之間找到平衡。這種方法使得政策制定者可以更快響應快速發(fā)展的AI創(chuàng)新。
在這一方法指導下,2023年10月30日,G7國家(加拿大、法國、德國、意大利、日本、英國、美國和歐盟)就AI國際指導原則和AI開發(fā)人員行為準則達成協(xié)議,這一舉措對于推動政府建立全球協(xié)調一致的基于風險的框架,以促進AI系統(tǒng)負責任和安全開發(fā)和使用至關重要。比如歐盟和加拿大的AI法案和數(shù)據(jù)法案,都使用風險和影響評估將AI系統(tǒng)歸入不同的合規(guī)義務類別。最廣泛的合規(guī)要求適用于被歸類為高風險的系統(tǒng),而低風險AI系統(tǒng)則根據(jù)其風險水平滿足較低要求。
趨勢三、區(qū)別行業(yè)通用和特定兩方面因素制定雙重AI監(jiān)管政策
AI技術在某些行業(yè)的使用可能帶來獨特風險,例如,由于安全風險高,需要額外的行業(yè)特定指導或規(guī)則來部署在公路上的自動駕駛汽車;在銀行使用AI,監(jiān)管機構需要制定特定規(guī)則,以最小化AI對消費者貸款構成的潛在風險(例如,有偏見的承保)或對銀行的安全性造成的風險。
我國等全球各國正區(qū)別行業(yè)通用和特定因素制定雙重AI監(jiān)管政策:跨行業(yè)方法構建的基本框架,為無論在哪個行業(yè)開發(fā)或使用AI,都能提供基本的保護措施;行業(yè)特定方法則為解決具體行業(yè)風險,對AI使用制定了額外的指導方針。下表是各國通用和特定行業(yè)雙重AI監(jiān)管政策舉例。
趨勢四、制定和調整AI相關影響領域的政策
AI規(guī)則,同時會影響和推動數(shù)據(jù)所有權、數(shù)字身份、網(wǎng)絡安全和數(shù)字內容流動等相關領域新政策的制定,或需對現(xiàn)有政策進行新的解釋。2024年5月,歐洲理事會正式通過全球第一部《AI法案》,并在受AI影響領域采取了最全面的方法,在相應領域制定新的法規(guī),比如,《通用數(shù)據(jù)保護條例》規(guī)定了解決AI在自動化決策中使用個人數(shù)據(jù)所帶來的挑戰(zhàn)的規(guī)則,《數(shù)據(jù)法案》規(guī)定了所有行業(yè)對于AI所需數(shù)據(jù)的公平獲取和使用規(guī)則,《數(shù)字服務法案》包括有關AI用于在線內容訪問和分發(fā)的規(guī)定,以及《網(wǎng)絡彈性法案》則引入了新的保障措施,以保護消費者和企業(yè)免受日益復雜的AI驅動網(wǎng)絡威脅的侵害。
趨勢五、利用AI沙盒開展監(jiān)管測試
沙盒允許在受監(jiān)管的環(huán)境中進行技術創(chuàng)新測試,因此,AI沙盒可以幫助制定針對性AI法規(guī),推動風險投資,促進競爭,并鼓勵監(jiān)管機構與參與公司進行更好溝通。自2014年英國金融行為監(jiān)管局(UK FCA)建立監(jiān)管沙盒后,已有約40個司法管轄區(qū)采用并建立了這一工具。
目前UK FCA正在測試金融科技領域的AI系統(tǒng),而英國信息專員辦公室(ICO)正在對AI進行數(shù)據(jù)隱私測試。在歐盟和新加坡,監(jiān)管機構正在使用AI監(jiān)管沙盒解決AI快速發(fā)展及其自身對AI技術缺乏經(jīng)驗的雙重挑戰(zhàn)。此外,西班牙、瑞典和德國也在建立AI沙盒,為歐盟的AI法案實施做準備。
趨勢六、AI治理的全球合作勢頭日益增強
2023年全年,伴隨著公眾對生成式AI系統(tǒng)開發(fā)和發(fā)布的關注不斷升溫,建立全球AI共同治理和監(jiān)管基礎的共識也日益增強。包括中國在內的28個與會國共同達成的《布萊切利宣言》在首屆全球AI安全峰會正式發(fā)表,這是全球第一份針對AI這一快速新興技術的國際性聲明,提出“迫切需要通過新的全球共同努力,理解和集體管理潛在風險,以確保AI以安全、負責任的方式開發(fā)和部署,造福全球社區(qū)”。這些倡議要求全球各國共同面對AI安全、倫理和治理等復雜挑戰(zhàn),通過協(xié)調國際響應和保障措施機制,促進AI治理的全球合作。另外,在OECD的AI治理工作組、歐洲委員會AI委員會、全球AI伙伴關系和聯(lián)合國機構的各種倡議基礎上,日本G7主席國發(fā)起了“廣島生成式AI進程”, 發(fā)布關于AI國際指導原則和AI開發(fā)人員的行為準則。
02 對AI政策制定的啟示
1.全面認識AI的復雜性
應確;谧銐虻膶I(yè)知識制定AI政策,并確保受監(jiān)管實體擁有足夠的專業(yè)知識有效實施其政策。確定并獲取此類專業(yè)知識需要一定時間,還涉及到相關指導、培訓、流程、治理、監(jiān)督,以及相應執(zhí)行。政府需對全民AI素養(yǎng)進行長遠規(guī)劃,并對相應投入做好充分的準備,比如新加坡國會議員動議補貼40歲以上新加坡人重新進課堂學習AI。
2.明確AI法規(guī)制定的確定性
制定AI法規(guī)時,需要區(qū)別AI和AI系統(tǒng),明確規(guī)則制定的意圖是監(jiān)管AI技術本身帶來的風險(例如,自然語言處理或面部識別等特性)還是AI技術的使用方式(例如,AI在招聘流程或監(jiān)控中的應用)帶來的風險。對于企業(yè)來說,法規(guī)的確定性至關重要,還應將AI作為一個整體進行監(jiān)管。明確知道哪些AI系統(tǒng)屬于監(jiān)管的范圍,以及內部風險管理流程重點在哪里,有助于提高企業(yè)遵守AI規(guī)則并滿足監(jiān)管期望的能力。
3.理解全球法規(guī)互操作的重要性
全球AI治理合作,有賴于全球AI法規(guī)的互操作性:一方面,互操作性確保各國法規(guī)具備一致的可比較的有效規(guī)則基礎,可減少監(jiān)管套利的風險;另外一方面,互操作性可為全球運營的AI服務的消費者提供通用保護,避免受到AI傷害。除此之外,法規(guī)互操作性還可以大大降低AI公司技術研發(fā)、應用服務提供和運營的相應成本。
4.將第三方供應的AI納入風險管理
由于許多公司依賴第三方供應的AI,政策制定者需要將第三方AI納入風險管理和合規(guī)要求。如歐盟的《AI法案》包括跨組織的AI供應鏈規(guī)定,為AI系統(tǒng)的提供者、分銷商、進口商和用戶規(guī)定了相應義務;而美國國家標準與技術研究院(NIST)制定的《AI風險管理框架》為第三方AI用戶創(chuàng)建指導手冊,說明通過第三方采購AI服務時需考慮的風險和合規(guī)要求。
本文作者
漆晨曦
戰(zhàn)略發(fā)展研究所
高級分析師
高級經(jīng)濟師,26年通信行業(yè)的數(shù)據(jù)分析、數(shù)據(jù)挖掘和數(shù)據(jù)科學及BI、營銷一體化平臺架構和業(yè)務規(guī)范的相關專業(yè)實踐和研究經(jīng)驗,近年專注企業(yè)數(shù)字化運營轉型和數(shù)據(jù)要素市場研究。