- +1
賽迪智庫|對比美歐人工智能法案,兼顧技術創新與安全監管

2021年4月歐盟委員會出臺《人工智能法案》(以下簡稱《法 案》),2022年10 月美國白宮發布《人工智能權利法案藍圖》(以下簡稱《藍圖》),兩者均把人工智能安全建設作為法案的核心內容。賽迪研究院未來產業研究中心通過對比研究認為,中國要進一步完善人工智能治理體系,制定有關規制措施和細則,可借鑒 美歐人工智能法案方面的新舉措,比如算法源頭的公平性管理、分類分級風險管控措施及完善的治理規則。
一、美歐法案各有側重,前者更重公平隱私,后者更重風險管控
美國《人工智能權利法案藍圖》核心內容為五項基本原則,將公平和隱私保護放在首要位置。《藍圖》提出的五項基本原則包括:建立安全和有效的系統;避免算法歧視,以公平方式使用和設計系統;保護數據隱私;系統通知和解釋要清晰、及時和可訪問;設計自動系統失敗時使用的替代方案、考慮因素和退出機制。這五項基本原則旨在避免人工智能系統濫用帶來的危害,并著重強調了公平性和隱私性。在公平性方面,《藍圖》要求自動化系統的設計者、開發者和部署者應采取積極措施,保護個人和社區免受算法歧視, 并以公平的方式使用和設計系統。在隱私保護方面,《藍圖》提出,數據隱私是實現該框架中其他原則所需的基礎性和交叉性原則。同時,《藍圖》要求自動化系統的設計和構建應默認保護隱私,數據收集和使用范圍應有確定目標。
歐盟《人工智能法案》是首個針對人工智能風險管控的法案。《法案》基于風險預防理念,為人工智能系統制定了覆蓋全過程的風險規制體系,是全球首個針對人工智能風險規制的法案。在風險流程監控方面,《法案》鼓勵建立國家或歐盟層面的監管沙盒,進一步規范處理合法收集的個人數據,并制定了相關規則。就風險防范措施而言,《法案》將人工智能系統劃分為不可接受風險、高風險、低風險和最小風險四類,著重立法規制前兩類風險,對高風險人工智能系統的全生命周期監管作了詳細規定。在適用范圍方面,《法案》將高風險覆蓋的領域歸納為關鍵基礎設施、公民教育、產品的安全組件、公民就業、公共服務、涉權型執法、出入境問題、司法和民主進程八類,重點提出,遠程生物識別系統原則上禁止在公眾可進入的空間和場所內使用。
表1 美歐人工智能法案主要內容對比

綜合來看,美國的《藍圖》雖未提出明確規則舉措,但已將公平和隱私保護視為法案的核心宗旨,后續細則也將圍繞強化公平和隱私保護展開。歐盟《法案》則首次在人工智能風險管控方面制定了實施細則,分場景、分級別的監管措施給完善治理體系提供了操作路徑。
二、幾個啟示
規制措施應進一步明確細化。美國《藍圖》提出了五項基本原則,但只限于“行動呼吁”,并未給出實際規制措施。目前,中國人工智能治理體系也未明確和細化實施措施。具體而言,中國人工智能治理體系主要涉及《網絡安全法》《個人信息保護法》《數據安全法》等法律條例,分別對網絡運營商和個人敏感信息以及數據處理的安全監管保護做了詳細規定,但在法律層面,對人工智能系統和算法的公平性尚未有明確規定,治理方案缺失。出于填補上述空白、進一步規范和細化人工智能治理體系的考慮, 中國應及時出臺人工智能相關規則,強化管控風險,推動人工智能產業健康發展。
風險管控措施應注重事前-事中-事后全流程管理。歐盟《法案》 在立法方面的“事前-事中-事后”全鏈條監管機制值得中國借鑒。在事前階段,法案劃分為四種風險等級,根據應用場景及風險等級的不同,制定相應規制措施。在事中階段,《法案》引入監管沙盒機制,一旦發現給人的健康、安全和基本權利帶來風險時,會立即采取措施降低風險。在事后階段,《法案》規定高風險人工智能系統供應商應制定售后監測計劃和售后監控系統,有義務及時將違規事件或嚴重故障系統上報國家監管機構。目前中國在人工智能風險管控措施方面還存在空白,可考慮借鑒《法案》框架及實施經驗,制定適用于中國的人工智能風險管控措施。
提防過度重視公平性與風險管控束縛產業創新活力。值得注意的是,美歐人工智能法案將公平性和風險管控置于高優先級,對產業創新發展欠缺應有的重視。當前,中國人工智能產業已進入規模化應用落地爆發期,算法爭議和系統安全事件偶有發生,人工智能治理體系的健全完善已進入有關主管部門的工作日程。有關主管部門在制定人工智能相關規制措施時,應合理把握規制措施的管控力度,做到完善人工智能治理體系和提升產業創新活力并舉。
三、對策建議
加快完善算法公平性管理相關條例。一是立足算法監管,明確從源頭抓起的基本出發點,引入公平性約束、算法可解釋性等原則要求,規范算法監管的手段和范圍。二是確立可追溯性原則,將算法行為決策置于監管范疇,確保案例調查中可還原追溯算法執行過程,對算法不當之處強制要求修正。三是重點關注算法在人工智能系統中的設計、開發與部署,要求系統開發設計人員明晰算法在人工智能系統中的運用。
加快制定分類分級風險防范措施。一是建立健全人工智能系統風險管控的“事前-事中-事后”全鏈條監管新機制。事前階段,在人工智能產品流入市場前進行風險評估,實現風險管控;事中階段,持續性進行市場監督,實施產品召回制度;事后階段,進行總結分析,實現人工智能風險事故的數據共享和風險監測。二是根據風險場景制定有層次、有梯度的風險等級管控機制。對歸屬于同一風險場景中的人工智能系統進行統一風險管控,建立起場景明確、等級清晰,自下而上限制逐步加深的“風險金字塔”模型的監管細則。三是加大違規處罰力度。明確人工智能系統開發企業或獨立開發者運用算法的風險防范紅線,對風險防范違規行為給予嚴格懲治,增強監管措施的強制約束性。
推動技術創新和安全監管并重并行。一是采取包容審慎的原則,針對人工智能創新應用場景和技術采取“沙盒監管”等創新監管手段,創新與監管同時推進,在“試驗田”內摸索監管尺度、范圍和手段,迭代試點經驗,形成較為成熟的制度化措施。二是推動安全監管技術創新。設立人工智能安全技術創新平臺,推進人工智能安全核心技術攻關,建設人工智能安全創新中心,加快安全監管與技術創新融合發展。三是引導人工智能權威第三方行業機構和龍頭企業,健全人工智能算法和系統行業自律規范,建立健全執業誠信體系,更好地發揮社會監督作用。
(作者鐘新龍、彭璐均來自賽迪研究院未來產業研究中心)





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司