▓成人丝瓜视频▓无码免费,99精品国产一区二区三区不卡 ,大长腿白丝被c到爽哭视频 ,高清无码内谢

澎湃Logo
下載客戶端

登錄

  • +1

擔心被AI換臉技術禍害?Deepfake打假隊正在趕來

2019-08-05 12:20
來源:澎湃新聞·澎湃號·湃客
字號

本文原標題:《擔心被AI換臉技術禍害?別怕!Deepfake打假隊正在趕來》

文章轉載自公眾號硅星人 , 作者 CJ

        但愿一鍵打假的速度,能追上一鍵換臉的速度。
        Deepfake自問世以來,一路向著人性陰暗面奔去。

        B站用戶讓蔡徐坤頂著六小齡童的面孔在偶像練習生C位出道。

        民間技術流已經能對著AI換臉教程玩的不亦樂乎。

        但每個人也更容易成為受害者:

        偽造綁架視頻勒索詐騙,不雅視頻毀壞名譽,或者恐怖視頻制造混亂,都因為Deepfake的開源技術變得空前容易。

        

        ▲讓一眾名人換上布什的面部動作 圖 TED

        在PS摧毀了公眾對圖片的信任后,Deepfake正在摧毀公眾對視頻的信任。

        沒有人想在互聯網上看到自己的面孔說著自己沒說過的話。

        許多針對個人的傷害,也因為影響不夠巨大而投訴無門。

        美國正在形成一支Deepfake打假隊伍,不僅是高校實驗室、研究中心在尋找Deepfake的破綻,一股創業潮流也正在興起。

        但這是一場造假AI與鑒假AI之間“你有張良計,我有過墻梯”的競賽。

        每一篇檢測Deepfake的論文,仿佛都能提示造假技術修補自身漏洞,從而更上一層樓。

        關上Deepfake的潘多拉魔盒,他們能做到嗎?

        用打假Deepfake創業

        Shiva Kintali離開擔任講師4年的普林斯頓計算機系,正在硅谷創業鑒別偽造視頻。

        他告訴硅星人,他的合作對象有警察、記者、保險公司等,通過機器學習尋找偽造視頻的破綻,用區塊鏈記錄信息等技術來輔助鑒別。

        Kintali的網站已經可以上傳圖像、音頻、視頻,來分析檢測是否有修改痕跡。

        他同時在開發一個手機相機應用,用人工智能為圖像添加時間、地點水印,并將圖片原始信息印在區塊鏈上。

        一旦傳播圖像的信息與原始圖片不符,就容易判斷真偽。

        這些產品希望幫助記者、媒體公司、政治競選團體、執法機構(例如FBI、NSA),保險公司(面臨虛假事故照片的保險索賠問題)和大公司(例如Facebook、Twitter、Redditt、PornHub),在其平臺上阻止虛假的視頻、音頻、照片傳播。

        由于Deepfake降低了視頻造假的門檻。

        面對真偽難辨的影像資料,記者不知道能否發布,保險公司不知是應該理賠還是報警詐騙,警察收集證據后,也需要專業工具去鑒定圖片和視頻的真偽。

        目前流傳的假視頻大多是“淺度造假”,但因為數量多,造成了無數困擾。

        斯坦福的研究人員向鑒別公司了解到困擾他們的三大問題:

        數量太多,可用鑒別時間太短,缺乏標準化的工具。

        因此,研究者們在尋找能夠大規模應用的打假方法。

        Facebook、Twitter等社交網絡上爆炸式傳播的圖片和影像,給辟謠留下的時間窗口越來越短。

        普通大眾也不可能雇傭專業人士進行鑒別。

        搶先商用化的圖像驗證平臺Truepic已經上線了一款智能相機應用。

        用戶拍下的圖像將上傳至服務器,在創建時對照片和視頻進行身份驗證,獲得唯一編碼。

        相機應用捕獲設備的傳感器數據,在傳輸之前加密照片或視頻,運行20多個圖像取證測試,并在幾秒鐘內,將圖像的加密簽名印在公共區塊鏈上,使得信息不可被篡改。

        這是一種“自證清白”的方式,適用于電子商務平臺和公民記者類用戶。

        如果用戶將圖片發送給接收者,Truepic允許收件人驗證圖像的原點和元數據的完整性。

        任何二次傳播的多媒體材料,都可以與區塊鏈上的原始信息對比,辨別真假。

        在Deepfake的威脅下,鑒定圖片、視頻的真實性,都成了相機應用的賣點。

        但這類以營利為目的的產品又引起了用戶新的隱私擔憂。

        畢竟,誰能確保Truepic不作惡呢?

        算法打算法

        位于硅谷的SRI International AI中心則“以毒攻毒”,用偽造的視頻訓練算法,讓算法能夠更好識別出偽造痕跡。

        在人們上傳視頻到社交網站的時候,平臺需要對視頻重新編碼。

        這是一個檢測虛假視頻的好時機。

        但隨著Deepfake的漏洞日漸優化,用算法打算法的難度也日益加大。

        打假AI原本就是訓練造假AI的一部分,二者剛好在生成對抗性網絡的兩端。

        一個生成器,一個鑒別器,道高一尺,魔高一丈。

        由于Deepfake的技術在于篡改數據,那么鑒別方則在尋找一切篡改數據的痕跡。

        一種方法是基于像素的視頻檢測,視頻其實是成千上萬幀圖片連放,細致到檢測每個像素的改變痕跡,是一件頗為浩大工程。

        此外,偽造的面部表情目前仍有缺陷。

        偽造的臉部表情往往與其他部分存在不一致,計算機算法可以檢測圖片或視頻中的這種不一致。

        

        ▲UC Berkeley研究者比較真假人物的面部差異 圖 UC Berkeley

        舉例而言,初代Deepfake視頻中的人物,眨眼的方式都有點奇怪。

        紐約州立大學奧爾巴尼分校計算機科學副教授Siwei Lyu曾撰文表示,成年人的眨眼間隔為2秒到10秒,一次眨眼需要十分之一到十分之四秒。

        這是正常視頻人物應有的眨眼頻率,但很多Deepfake視頻的人物沒能做到這一點。

        彼時由于缺乏閉眼圖像數據,算法的訓練并不完美,視頻人物面孔總有一種“哪里不對”的不和諧感。

        然而,通過閉眼的面部圖像、或使用視頻序列進行訓練,可以改善眨眼間隔。

        虛假視頻的質量總會提高,而研究人員需要繼續尋找檢測它們漏洞的方法。

        南加大的研究者Wael Abd-Almageed表示,社交網絡可以使用算法來大規模識別Deepfake。

        為了實現這一過程的自動化,研究人員首先建立了一個神經網絡,“學習”人類在說話時如何移動的重要特征。

        然后,研究人員使用這些參數將偽造視頻的堆疊幀輸入AI模型,以檢測隨時間的不一致性。

        普渡大學的研究人員也采用了類似的方法,他們認為,隨著訓練模型的Deepfake視頻數據量越來越大,模型也會更加精確,更容易檢測出偽造的視頻。

        美國2020年大選在即,如何阻止Deepfake從低俗娛樂發展到操縱民意,是研究者們最迫切的動力之一。

        但愿一鍵打假的速度,能追上一鍵換臉的速度。

        轉載聲明:本文授權轉載自「硅星人」,搜索「guixingren123」即可關注。作者:CJ丨封面圖來源:pixabay

閱讀原文

    本文為澎湃號作者或機構在澎湃新聞上傳并發布,僅代表該作者或機構觀點,不代表澎湃新聞的觀點或立場,澎湃新聞僅提供信息發布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。

    +1
    收藏
    我要舉報
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號

            滬公網安備31010602000299號

            互聯網新聞信息服務許可證:31120170006

            增值電信業務經營許可證:滬B2-2017116

            ? 2014-2025 上海東方報業有限公司

            反饋
            主站蜘蛛池模板: 新邵县| 启东市| 团风县| 刚察县| 大竹县| 肥东县| 平定县| 张家口市| 象州县| 瑞昌市| 尼木县| 汉沽区| 大余县| 泸定县| 冀州市| 乌兰浩特市| 阜新| 仪征市| 思南县| 绥中县| 清水县| 咸阳市| 平和县| 清新县| 临洮县| 永寿县| 高台县| 历史| 泰顺县| 绥芬河市| 丹巴县| 玛纳斯县| 郓城县| 峡江县| 普兰店市| 北宁市| 特克斯县| 阿拉尔市| 延庆县| 于田县| 察哈|