- +1
【社論】警惕變聲、換臉技術濫用

去年12月,某公司財務小王接到領導電話,要求立刻給供應商轉款2萬元。電話里傳來的確實是老板的口音,因此小王立刻照辦。沒想到,這是一場徹頭徹尾的騙局。
這是公安部網安局公布的一起真實案例。騙子使用的是合成聲音技術,能讓偽造的聲音以假亂真。比合成聲音更高級的是“深度偽造”(deep fake),這是一種將個人的聲音、面部表情及身體動作拼接合成虛假內容的人工智能技術,最常見方式就是AI換臉。隨著人工智能技術的發展,變聲、換臉在互聯網產品中的應用越來越普及。
近日,國家互聯網信息辦公室、公安部指導各地網信部門、公安機關約談小米、快手等11家企業,加強對語音社交軟件和涉“深度偽造”技術的互聯網新技術新應用安全評估工作。
針對技術發展的新動向,及時出手、迅速反應,充分顯示出有關部門的前瞻意識和憂患意識。如何消除“深度偽造”技術帶來的安全隱患,完善風險防控機制和措施,正是全社會共同關心的問題。
這絕非危言聳聽。以往,影視作品中的換臉操作起來非常復雜。早在1994年上映的經典電影《阿甘正傳》里,我們就能見識到早期的換臉術。但如今,隨著“深度偽造”這樣公開且輕量化技術的出現,換臉的門檻也越來越低了。哪怕是普通人,也能在短時間學習之后熟練掌握這項技術。
不僅是日常生活,面容和聲音造假還有可能對社會乃至整個世界的正常運行帶來巨大威脅,美國喜劇演員皮爾曾經利用合成技術偽裝成前總統奧巴馬并發表“視頻演講”。眼見未必為實、耳聽未必為真,這種能讓任何人扮演任何人的高科技偽造技術,必然會顛覆人們的認知,給社會帶來恐慌。
作為個人,我們必須要在平時的生活中提高防范意識。公安部網安局提醒,“看眼睛”是識別假臉的方法之一,因為假臉極少甚至不會眨眼。
但已有專家提醒,隨著“深度偽造”技術的發展,肉眼無法識別的假臉已經離我們越來越近。因此,還得從源頭抓起,積極主動進行監管,比如要求互聯網視頻發布實名制、加強相關立法等。
此次有關部門約談企業,就是要敦促其切實履行企業信息內容安全主體責任,共同維護網絡傳播秩序,營造良好網絡生態。
人類已經進入人工智能時代。虛擬技術可以讓教學更有趣味性,虛擬主播播報新聞更有親和力,“深度偽造”可以讓影視創作突破時空限制……社會應該積極鼓勵人工智能技術在醫療、教育、藝術、社交等領域的應用和發展,但也必須對變聲、換臉等形式的技術濫用保持警惕。
說到底,科技是一把雙刃劍,本身無關善惡,能不能用好新技術新應用,關鍵還在于使用的人。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司