- +1
擔心被AI換臉技術禍害?Deepfake打假隊正在趕來
本文原標題:《擔心被AI換臉技術禍害?別怕!Deepfake打假隊正在趕來》
文章轉載自公眾號硅星人 , 作者 CJ


B站用戶讓蔡徐坤頂著六小齡童的面孔在偶像練習生C位出道。
民間技術流已經能對著AI換臉教程玩的不亦樂乎。
但每個人也更容易成為受害者:
偽造綁架視頻勒索詐騙,不雅視頻毀壞名譽,或者恐怖視頻制造混亂,都因為Deepfake的開源技術變得空前容易。

在PS摧毀了公眾對圖片的信任后,Deepfake正在摧毀公眾對視頻的信任。
沒有人想在互聯網上看到自己的面孔說著自己沒說過的話。
許多針對個人的傷害,也因為影響不夠巨大而投訴無門。
美國正在形成一支Deepfake打假隊伍,不僅是高校實驗室、研究中心在尋找Deepfake的破綻,一股創業潮流也正在興起。
但這是一場造假AI與鑒假AI之間“你有張良計,我有過墻梯”的競賽。
每一篇檢測Deepfake的論文,仿佛都能提示造假技術修補自身漏洞,從而更上一層樓。
關上Deepfake的潘多拉魔盒,他們能做到嗎?
用打假Deepfake創業
Shiva Kintali離開擔任講師4年的普林斯頓計算機系,正在硅谷創業鑒別偽造視頻。
他告訴硅星人,他的合作對象有警察、記者、保險公司等,通過機器學習尋找偽造視頻的破綻,用區塊鏈記錄信息等技術來輔助鑒別。
Kintali的網站已經可以上傳圖像、音頻、視頻,來分析檢測是否有修改痕跡。
他同時在開發一個手機相機應用,用人工智能為圖像添加時間、地點水印,并將圖片原始信息印在區塊鏈上。
一旦傳播圖像的信息與原始圖片不符,就容易判斷真偽。
這些產品希望幫助記者、媒體公司、政治競選團體、執法機構(例如FBI、NSA),保險公司(面臨虛假事故照片的保險索賠問題)和大公司(例如Facebook、Twitter、Redditt、PornHub),在其平臺上阻止虛假的視頻、音頻、照片傳播。
由于Deepfake降低了視頻造假的門檻。
面對真偽難辨的影像資料,記者不知道能否發布,保險公司不知是應該理賠還是報警詐騙,警察收集證據后,也需要專業工具去鑒定圖片和視頻的真偽。
目前流傳的假視頻大多是“淺度造假”,但因為數量多,造成了無數困擾。
斯坦福的研究人員向鑒別公司了解到困擾他們的三大問題:
數量太多,可用鑒別時間太短,缺乏標準化的工具。
因此,研究者們在尋找能夠大規模應用的打假方法。
Facebook、Twitter等社交網絡上爆炸式傳播的圖片和影像,給辟謠留下的時間窗口越來越短。
普通大眾也不可能雇傭專業人士進行鑒別。
搶先商用化的圖像驗證平臺Truepic已經上線了一款智能相機應用。
用戶拍下的圖像將上傳至服務器,在創建時對照片和視頻進行身份驗證,獲得唯一編碼。
相機應用捕獲設備的傳感器數據,在傳輸之前加密照片或視頻,運行20多個圖像取證測試,并在幾秒鐘內,將圖像的加密簽名印在公共區塊鏈上,使得信息不可被篡改。
這是一種“自證清白”的方式,適用于電子商務平臺和公民記者類用戶。
如果用戶將圖片發送給接收者,Truepic允許收件人驗證圖像的原點和元數據的完整性。
任何二次傳播的多媒體材料,都可以與區塊鏈上的原始信息對比,辨別真假。
在Deepfake的威脅下,鑒定圖片、視頻的真實性,都成了相機應用的賣點。
但這類以營利為目的的產品又引起了用戶新的隱私擔憂。
畢竟,誰能確保Truepic不作惡呢?
算法打算法
位于硅谷的SRI International AI中心則“以毒攻毒”,用偽造的視頻訓練算法,讓算法能夠更好識別出偽造痕跡。
在人們上傳視頻到社交網站的時候,平臺需要對視頻重新編碼。
這是一個檢測虛假視頻的好時機。
但隨著Deepfake的漏洞日漸優化,用算法打算法的難度也日益加大。
打假AI原本就是訓練造假AI的一部分,二者剛好在生成對抗性網絡的兩端。
一個生成器,一個鑒別器,道高一尺,魔高一丈。
由于Deepfake的技術在于篡改數據,那么鑒別方則在尋找一切篡改數據的痕跡。
一種方法是基于像素的視頻檢測,視頻其實是成千上萬幀圖片連放,細致到檢測每個像素的改變痕跡,是一件頗為浩大工程。
此外,偽造的面部表情目前仍有缺陷。
偽造的臉部表情往往與其他部分存在不一致,計算機算法可以檢測圖片或視頻中的這種不一致。

舉例而言,初代Deepfake視頻中的人物,眨眼的方式都有點奇怪。
紐約州立大學奧爾巴尼分校計算機科學副教授Siwei Lyu曾撰文表示,成年人的眨眼間隔為2秒到10秒,一次眨眼需要十分之一到十分之四秒。
這是正常視頻人物應有的眨眼頻率,但很多Deepfake視頻的人物沒能做到這一點。
彼時由于缺乏閉眼圖像數據,算法的訓練并不完美,視頻人物面孔總有一種“哪里不對”的不和諧感。
然而,通過閉眼的面部圖像、或使用視頻序列進行訓練,可以改善眨眼間隔。
虛假視頻的質量總會提高,而研究人員需要繼續尋找檢測它們漏洞的方法。
南加大的研究者Wael Abd-Almageed表示,社交網絡可以使用算法來大規模識別Deepfake。
為了實現這一過程的自動化,研究人員首先建立了一個神經網絡,“學習”人類在說話時如何移動的重要特征。
然后,研究人員使用這些參數將偽造視頻的堆疊幀輸入AI模型,以檢測隨時間的不一致性。
普渡大學的研究人員也采用了類似的方法,他們認為,隨著訓練模型的Deepfake視頻數據量越來越大,模型也會更加精確,更容易檢測出偽造的視頻。
美國2020年大選在即,如何阻止Deepfake從低俗娛樂發展到操縱民意,是研究者們最迫切的動力之一。
但愿一鍵打假的速度,能追上一鍵換臉的速度。
轉載聲明:本文授權轉載自「硅星人」,搜索「guixingren123」即可關注。作者:CJ丨封面圖來源:pixabay
本文為澎湃號作者或機構在澎湃新聞上傳并發布,僅代表該作者或機構觀點,不代表澎湃新聞的觀點或立場,澎湃新聞僅提供信息發布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司