- +1
馬上評|AI換臉被用于詐騙,技術濫用風險在加劇
近日,包頭警方發布一起利用AI實施電信詐騙的典型案例,福州市某科技公司法人代表郭先生10分鐘內被騙430萬元。這起案件曝光后,很快登上了熱搜,引發了網友的普遍擔心,因為在AI換臉技術的輔助下,詐騙術的欺騙性實在是太強了,讓人防不勝防。
比如,騙子并沒有用仿真微信加郭先生行騙,而是直接用其好友的微信;再如,轉賬之前,郭先生為了確認安全,還專門視頻聊天核實了身份。這意味著,騙子首先“攻陷”了郭先生好友的微信,然后用AI合成了其好友的臉和聲音,騙取了郭先生的信任。
以往碰到要轉賬的情況,很多人都會像郭先生一樣,先打電話或者視頻確認一下,沒想到在AI換臉技術下,眼見、耳聽都不一定為實了。這就大大增強了迷惑性,客觀上確實給行騙提供了一定的方便。那么在人工智能時代,該如何保衛我們的財產安全和合法權益?
而且,AI換臉技術被濫用,所帶來的不僅是財產風險,還會引發肖像權、知識產權等領域的紛爭。之前有人用AI換臉來制作明星甚至普通人的不雅視頻、隨意制作AI歌手并隨意“點歌”,就曾引發爭議,這背后也是一條條依托人工智能的地下黑產業鏈。
不過還是要認識到,雖然人工智能增加了防詐騙的難度,但技術本身是中性的,主要的問題還在于對技術的不當使用。像本案中,至少有兩層值得追問的地方:其一,個人微信、人臉等隱私信息是如何泄露的?其二,騙子團伙所使用的AI換臉技術服務,到底是誰在開發、提供?
作為個人信息的人臉,這種生物識別信息具有高度敏感性,很多人的手機、網銀支付都是采用面容解鎖。對人臉信息的使用處理,理應嚴格遵守信息保護邊界,要避免隨意泄露,給騙子可乘之機;更要明確技術使用范圍,嚴防被濫用。
為了規范人工智能發展,尤其是規避AI換臉帶來的系列問題,去年12月,《互聯網信息服務深度合成管理規定》正式發布,對數據和技術管理規范進行了明確。比如,關于授權同意的原則提到,深度合成服務提供者和技術支持者提供人臉、人聲等生物識別信息編輯功能的,“應當提示深度合成服務使用者依法告知被編輯的個人,并取得其單獨同意”。
簡單來說,這些技術服務公司,不能隨便使用普通人的人臉來換臉,必須經過本人同意,換臉不是想換就能隨便換,也不是騙子給錢就能隨便換。如果就此案深挖下去,不排除能揪出一條非法利用人工智能技術的黑產業鏈。
當然,人工智能開發還是一個高速成長的領域,規則的健全完善還需要時間。但不管怎么說,此次案件都提醒我們,技術被濫用的風險,對普通人造成的安全隱患和威脅,絕對不容低估。
對大眾來說,在人工智能時代,我們得更加警惕,不要隨意泄露個人信息,需要轉賬時更加謹慎地核實。而對行業而言,必須盡快立規,明確信息保護紅線,加強對技術服務商行為的規范引導,等等。只有AI換臉、AI擬聲等在每一個環節有據可依、嚴格授權,提升造假詐騙難度,才能更好保護每個人的信息和財產安全。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司