- +1
報告稱人工智能語音詐騙興起,利用公開音頻合成高管聲音
“深度偽造”技術(Deepfake)通常指利用人工智能技術實時偽造面部表情、人聲,并合成高仿真度的視頻與音頻。當前,利用Deepfake 進行語音詐騙正在成為公司詐騙的新型手段之一。
當地時間7月27日,美國科技媒體The Verge報道稱,網絡詐騙犯正在利用Deepfake仿制公司高管的語音,合成語音郵件發送至公司員工,對大型公司進行經濟詐騙。
7月19日,總部位于美國弗吉尼亞州的安全咨詢公司NISOS發布了一份題為《合成音頻Deepfakes的興起》(The Rise of Synthetic Audio Deepfakes)的白皮書,在其中調查并分析了一家科技公司遭遇Deepfake音頻詐騙的事件,并向大眾提出預防該類詐騙的建議。
白皮書稱,敲詐者將一份模仿某公司CEO語音的Deepfake音頻以郵件形式發送給公司員工,要求員工“立即提供幫助以完成緊急商業交易”。
NISOS使用音頻頻譜工具對該語音郵件的Deepfake音頻進行了分析。他們發現,這段Deepfake語音的頻譜圖有峰值反復出現且音頻有不連貫的特點。經過與真實人聲音頻的比對,NISOS稱,相較于合成音頻,真實人聲的音高與音調都更為平滑。
此外,當研究團隊放大合成音頻的音量時,他們無法監測到背景噪音。而在真實人聲的音頻中能夠檢測微弱的背景噪音。這進一步表明這段音頻是經過人為處理的。
值得慶幸的是,這次詐騙并未成功,上述公司員工在收到語音郵件后認為其可疑并將其登記至公司的法律部門。但在此之前,已有諸多利用Deepfake技術進行公司詐騙的案例。
白皮書稱,2019年9月,犯罪分子使用語音克隆軟件對英國一家能源公司高管的聲音進行模仿,該公司的執行董事在接聽詐騙電話后將超過24萬美元匯入了一個匈牙利賬戶。目前,該罪犯仍未被抓獲。
2020年2月20日 ,互聯網安全專家公司Symantec報告了三起Deepfake音頻詐騙案例,犯罪分子通過電話會議、YouTube、社交媒體以及TED演講獲得了公司高管的音頻,然后用機器學習技術復制高管的聲音,致電財務部門的高級成員要求緊急匯款。
NISOS注意到,Deepfake音頻創作者為了創建更為逼真的音頻,通常需要克服如下幾個因素:捕獲幾乎沒有背景噪音的高質量音頻;在不需要回電的情況下進行音頻傳送;以留言的形式避免與音頻接收者實時交談。
因此,犯罪分子很可能利用VoIP網絡電話賬號聯系攻擊對象,并使用語音郵件功能發送合成音頻。VoIP(Voice over Internet Protocol)即基于IP的語音傳輸,可以經由網絡協議(IP)直接與電話進行通話。
隨著Deepfakes的創建或購買變得越來越容易,音頻、視頻的合成處理質量不斷提高。NISOS預計,此類電子詐騙將更為普遍。據The Verge 2020年1月29日的報道,美國聯邦貿易委員會(FTC)在其首個有關音頻克隆技術的公開研討會上,警告了語音克隆技術詐騙案件的危險性。美國司法部的計算機犯罪和知識產權部門也表示,Deepfakes使犯罪分子能夠進行匿名交流,降低了詐騙難度。
如何預防此類語音詐騙? NISOS建議,由于現有的Deepfake技術還無法模仿整個通話過程,當公司員工察覺語音郵件等音頻有可疑之處時,可以使用已知號碼回撥該發送者進行通話;公司員工也可以針對公司內部信息或某些機器無法輕易回答的問題在通話過程中進行挑戰性提問,以查明通話對象的身份。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司