- +1
聚焦AI治理|產學界呼吁構建統一的AI模型安全評估準則
“人工智能開發與隱私保護存在緊張關系;在影視制作、社交、娛樂、教育、電商等領域具有很大正向應用潛能的深度合成也可能被濫用來進行違法活動。”
近日,騰訊研究院高級研究員曹建峰在首屆清華大學人工智能合作與治理國際論壇分享對算法偏差和深度合成的看法。他建議業界探索開發隱私保護型的AI技術方法,在隱私保護與數據利用之間實現更好平衡。
在清華大學人工智能合作與治理國際論壇 “人工智能與數據安全”分論壇上,相關學者與產業屆人士聚焦討論數據與人工智能的近期與遠期風險、安全挑戰及對策。
分論壇由中科院自動化所中英人工智能倫理與治理中心主任曾毅主持。劍橋大學智能未來研究中心研究員丹尼特·加爾(Danit Gal)、荷蘭埃因霍溫科技大學教授文森特·穆勒(Vincent Muller)、北京師范大學網絡法治國際中心執行主任吳沈括等人參與交流。
與會專家認為,人工智能和數據安全的治理需要世界各國和組織聯合起來,制定更加明晰有效的法律法規,構建統一的人工智能模型與系統的安全評估準則和標準,在全球范圍內用更加開放協同的方式進行科學研究和技術交流,推動人工智能技術在安全的基礎上更快速的落地,構建更安全、更美好的世界。

以下是各位人工智能學者與產業界人士的發言集錦:
丹尼特·加爾:AI的內部風險與外部防御挑戰
劍橋大學智能未來研究中心研究員丹尼特·加爾(Danit Gal)重點總結了人工智能安全相關的內部風險與外部防御的近期挑戰,并對各國數據規制應當形成全球協作提出建議。
她在主旨演講中區分了人工智能安全的兩大重要概念(Safety和Security)的概念。Safety更偏向內部,針對的是一些無意傷害的預防措施,從系統中保護環境。Security更傾向于對外部攻擊的防御,聚焦在那些有意對個人、組織和財產施加傷害的行為,從環境中保護系統。
她認為,科技影響著我們所有人,它的安全和保障也是如此。然而,我們應對這些影響的能力遠遠落后于開發和使用。人工智能和數據流進一步復雜化了這一動態,引入并連接了新的機會和新的漏洞。丹尼特·加爾建議,應加強交流、推動合作,以減少脆弱性,在全球范圍內倡導并激勵數據安全治理工作。
文森特·穆勒:通用AI的長遠風險極不確定
荷蘭埃因霍溫科技大學教授文森特·穆勒(Vincent Muller)在演講中指出通用人工智能和超級智能的長遠風險具有極大不確定性。
他分成兩步介紹了超級智能和通用人工智能的長期風險,即從超級智能到技術奇點,再從技術奇點到生存風險。超級智能指的是在許多非常普遍的認知領域遠遠超過當今人類最佳智力的人工智能。
從超級智能到技術奇點,他強調了三個前提假設,分別是我們擁有更快的速度和更多的數據,不需要認知科學,以及應用十分緊急。從技術奇點到生存風險,他強調了兩點前提假設,理性主體決策理論適用于人工智能,以及智能和最終目標的正交性。
羅曼·揚波爾斯基:超級智能意味著超級控制
美國路易斯維爾大學教授羅曼·揚波爾斯基(Roman Yampolskiy)談到人工智能、安全和防御的未來,并表達了對于人工智能的擔憂。
他在主旨演講中表示,當前超級智能正在來臨,超級智能意味著超級聰明、超級復雜、超級快速、超級控制、超級病毒。
他談到關于人工智能的擔心,重點介紹了最近的幾項研究工作,包括通往危險的人工智能的路徑分類學、人工智能安全不可能的結果、緩解負面影響、人工智能的限制問題等。
他認為,人工智能失敗的時間軸呈指數趨勢,人工智能失敗的頻率和嚴重程度都會增加,這與人工智能的能力成比例。
曹建峰:AI開發與隱私保護存在緊張關系
騰訊研究院高級研究員曹建峰在會上分享了對算法偏差和深度合成(deep synthesis)的看法,并提出了解決問題的建議。
他認為,當前人工智能系統必須使用大量數據訓練算法。如果訓練數據是有偏見的或不完整的,人工智能系統將會顯示有偏見的行為。因此,人工智能開發應該對數據質量有合理的控制。但數據并不是偏見的唯一來源,解決算法偏見還需要AI從業人員秉持倫理價值。此外,人工智能開發與隱私保護存在緊張關系;在影視制作、社交、娛樂、教育、電商等領域具有很大正向應用潛能的深度合成也可能被濫用來進行違法活動。
為解決這些問題,曹建峰給出了四點建議,人工智能與數據產品開發需要遵循“通過設計的倫理”(ethics by design)理念,將公平、安全等倫理價值融入產品設計全周期,并有防止濫用的保障措施;二是在企業、國家乃至國際層面建立負責任的人工智能開發和數據使用的道德準則;三是在國際社會分享最佳實踐經驗;四是業界需要探索開發隱私保護型的AI技術方法,如聯邦學習等,來在隱私保護與數據利用之間實現更好平衡。
吳沈括:國際社會需面對數據違法行為帶來的法律漏洞
北京師范大學網絡法治國際中心執行主任吳沈括在會上表示,國際社會需要面對新技術環境下數據違法行為帶來的新挑戰和法律漏洞。
首先,由于不同地區、國家法律法規的缺失和差異,普遍導致對新型數據違法行為司法規制不足。其次,各國現行法律制度框架尚不能充分保障跨境證據收集與交換的快速高效。最后,在網絡匿名的背景下,一些國家的監測、預警和應急機制越來越難以有效應對脆弱性問題的快速增長。因此,在全球化深入發展的新時代,數據違法行為的跨國衍變要求更高水平的國際合作治理,建立信任世界。
鄧亞峰:不法分子利用AI會帶來倫理問題
奇虎 360 人工智能研究院院長鄧亞峰在會上總結了人工智能在數據安全方面存在的潛在威脅。
首先,由于人工智能是快速出現的新應用,人工智能應用生產和部署的各個環節都暴露出了一系列的安全風險。其次,人工智能和大數據應用往往與大量隱私數據關聯,這些數據往往需要被送到云端進行分析和計算,造成了比原來更嚴重的數據泄露和安全風險。第三,雖然從技術角度看,人工智能體很長一段時間都無法擁有真正的自我意識,但是,我們無法排除一些不法分子會對人工智能加以利用,而這會帶來大量的社會倫理問題。最后,由于人工智能在短期內會造成一部分從事簡單重復性工作的人類失業,這會引起一定的恐慌和排斥。此外,人工智能也因為技術的不成熟,會被認為在識別結果上存在一定的歧視。
他認為,人工智能和數據安全是全世界都統一面臨的問題,需要全世界的組織和個人聯合起來一起行動。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司