- +1
賽迪智庫|美歐人工智能治理政策對比分析及啟示

近期,生成式人工智能技術掀起了新一輪科技創新浪潮,在帶來生產力革新的同時,也引發了網絡安全、算法歧視和道德倫理等風險隱患,美國和歐盟為此加速制定人工智能治理政策。賽迪研究院網絡安全研究所認為,美國采取的治理舉措寬松溫和,以行業自律為主要手段,在促進技術發展的同時保證其安全可靠;歐盟則采取了較為嚴格的限制舉措,從國家法律層面對人工智能系統實施風險定級,并分別提出規制路徑,強化其在新一代人工智能技術浪潮中的國際影響力與戰略主動權。美國和歐盟人工智能治理的相關舉措對中國有一定的借鑒意義。
一、美歐人工智能治理政策文件密集發布
美國的人工智能治理政策,其核心是以技術的發展應用為重點,逐步向加強監管靠攏。自2022年美國白宮發布《人工智能權利法案藍圖》以來,又發布了多個原則性規定,指導人工智能系統的設計、開發、部署和使用,鼓勵行業自愿遵守相關原則并進行自我監管,逐步形成了美國人工智能治理的基本框架。2023年,隨著生成式人工智能等技術的不斷成熟,其存在的算法歧視、數據過擬合和數據泄露等風險日益凸顯。為確保生成式人工智能技術的安全性和可靠性,美國政府對人工智能的監管力度逐漸加大,且發布系列政策文件強化人工智能治理,確保和維護美國在該領域的霸主地位,降低人工智能安全風險。
歐盟采取強監管風格,推出人工智能領域的“GDPR”。2023年6月,歐洲議會全體會議通過了2021年4月由歐盟委員會提出的《人工智能法案》談判授權草案。該法案草案是歐盟范圍內人工智能治理方面統一的法律框架,管轄適用范圍寬泛,可用于規范全部系統輸出數據在歐盟使用的系統提供方或使用者。其嚴格禁止銷售和使用對人們安全、生計和權力構成明顯威脅的人工智能技術,違規公司可能被處以其全球年營業額的7%或4000萬歐元的高額罰款。歐盟對人工智能監管的風格趨向強硬,期望通過設立全球范圍的規則對人工智能進行全面監管。該法案草案通過對人工智能系統風險等級和治理策略劃分等級,設定了普適、 全面的人工智能監管方法,如同《歐洲通用數據保護條例》(GDPR)。預計,它將對全球人工智能監管產生重要影響。
二、美歐對人工智能治理的異同分析
在治理重點方面,美歐均將算法歧視治理放在人工智能治理的首要位置。
算法歧視是指人工智能系統在決策或提供服務時對某些個體或群體產生不公平的影響,這種歧視可能基于數據偏見、人類偏見或系統設計缺陷等因素,給個人和社會帶來潛在風險。一是不平等對待風險。例如,在就業、貸款和保險等領域不公平的結果,會帶來對特定群體的偏袒或歧視。二是倫理道德風險。算法可能侵犯個人隱私權、違反倫理準則,對個人權益造成損害。三是社會分裂風險。算法歧視可能加劇社會不平等及深化分裂,激發不滿情緒,造成動蕩。雖然歐美在 對人工智能風險的定義劃分和治理態度上存在一定差異,但算法歧視是雙方共同認可且最為關注的治理重點。美國《人工智 能權利法案藍圖》將“算法歧視保護”作為人工智能設計部署的五項基本原則之一,《人工智能問責政策(征求意見稿)》中也將“算法公平”列為人工智能審計和評估的重點領域。歐盟《人工智能法案》談判授權草案更是將帶有算法歧視風險的人工智能系統歸類為對人類安全造成不可接受風險的人工智能系統,禁止在歐盟范圍內部署。
在治理態度方面,歐盟高度重視,美國則持寬松態度。
歐盟高度重視人工智能安全風險,將其分為不可接受風險、高風險、有限風險和低(無)風險四個風險級別。其中,帶有算法歧視的系統、基于敏感屬性的生物識別分類系統等被劃分為不可接受風險系統,醫療等關鍵領域受管制的部分系統被劃分為高風險系統,其他系統為有限風險或低(無)風險系統。歐盟對不同風險級別的系統設置了不同的監管措施,以確保人工智能的倫理和法律準則得到遵守。相形之下,美國對人工智能安全風險問題的看法相對寬松,雖然也面臨人工智能安全挑戰,但并未像歐盟一樣對人工智能獨有風險進行專門研究并分類分級, 而是重點關注算法歧視引發的公平問題與數據隱私安全保護這兩個風險點,以求在維護公平和保護隱私的同時,保持本國人工智能技術創新和商業競爭力。
在治理手段方面,美國傾向于行業自律,歐盟則通過立法途徑解決。
美國聯邦政府和企業普遍更加注重人工智能系統的性能和創新,對算法歧視等安全風險并沒有明確的立法和監管框架。聯邦政府層面更傾向于通過采用自律和行業準則等方式解決相關安全風險。例如,敦促企業制定自己的AI倫理準則,并通過內部審核和自我監督來減少算法歧視風險。此外,一些學術機構和非營利組織也在推動人工智能系統的公平性和透明性研究,并提供工具和指導方針來減少算法歧視風險。歐盟則傾向于通過立法途徑對人工智能進行嚴格監管與處罰,以確保技術和系統的公正性與透明性。歐盟2021年發布的《歐洲人工智能法規》,對高風險人工智能系統的使用提出了嚴格要求,并對不合規行為進行罰款和制裁,以限制和減少人工智能系統的算法歧視風險;《人工智能法案》談判授權草案作為全球首部人工智能管制法案,也從法律層面對高風險人工智能系統做出禁止部署要求,并對違規企業處以高額罰款。
三、幾點思考
人工智能作為具有重大顛覆性意義的新一代信息技術,正在深刻重塑全球競爭格局。建議借鑒美歐相關舉措,從法律法規、標準和產業等層面發力,完善人工智能治理體系,促進中國人工智能健康發展。
完善人工智能治理法律法規。法律法規是治理的依據。國務院2023年度立法工作計劃明確,將預備提請全國人大常委會審議人工智能法草案。為此,建議加快立法進度,明確人工智能治理規則。
一方面,要明確人工智能網絡安全監管規則。不得將人工智能用于網絡詐騙、網絡和數據攻擊、隱私和商業秘密竊取等,不得利用人工智能生成和傳播虛假信息、暴力色情信息等。另一方面,應建立和完善人工智能應用算法歧視和倫理審查等規則。鼓勵通過社會實驗等方式,密切跟蹤人工智能技術應用于教育、醫療、養老和交通等領域可能帶來的算法歧視和道德倫理問題。比如,人工智能大規模使用導致的結構性失業問題,人工智能導致事故后的權責判定問題,以及沉迷人工智能帶來的青少年心理健康問題等,據此,研究制定人工智能算法歧視、道德倫理審查規則和標準。鼓勵通過行業自律形式營造積極應對人工智能算法歧視、道德倫理問題的良好氛圍。
促進人工智能安全服務產業發展。網絡安全的本質是技術對抗,強化人工智能治理離不開網絡安全技術和產業的有力支撐。一方面,要引導網絡安全產業各方為人工智能研發機構提供安全服務,做好人工智能算法模型訓練數據集的清洗,避免訓練數據集帶有歧視性內容;做好人工智能生成內容合規性檢查,制定網絡和數據安全事件應急處置舉措。另一方面,應引導網絡安全產業各方為人工智能應用機構提供安全服務,從技術層面甄別有關內容是否為人工智能生成;強化人工智能使用機構的漏洞挖掘、病毒查殺、邊界防護、入侵防御、數據保護和追蹤溯源等能力。
為人工智能技術應用創新留足空間。人工智能治理的目的是促進技術應用創新發展。作為新技術新應用,人工智能應用大多具備輿情動員能力,需經有關部門評估后方能上線應用。
一方面,考慮到人工智能應用后帶來的網絡安全和算法歧視等風險存在一定的未知性,建議在新技術新應用評估過程中適度允許研發機構增加內測時間、擴大內測用戶規模,給予人工智能應用一定的上線觀察期。另一方面,應推進人工智能安全風險分類分級標準,在法律法規層面探索建立責任豁免機制,在人工智能開發者嚴格遵守有關法律和標準的條件下,如果出現較低風險人工智能網絡安全和算法歧視事件,則可賦予開發者免責機會,以避免責任失衡導致技術創新發展動力被遏制。
(作者周千荷、郝依然、張博卿均來自賽迪研究院)





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司