“換臉”也逃不過數字偵探法眼
摘要:由人工智能技術合成的虛假視頻已達到幾可亂真的水平,美國國防部設立的研究項目現已開發出識別這些虛假視頻的首批工具。制作虛假視頻的最常見技術是使用機器學習技術將一個
由人工智能技術合成的虛假視頻已達到幾可亂真的水平,美國國防部設立的研究項目現已開發出識別這些虛假視頻的首批工具。
制作虛假視頻的最常見技術是使用機器學習技術將一個人的臉換到另一個人的臉上。由此產生的視頻,也被稱為深度偽造(Deepfake)視頻,不僅制作簡單而且逼真度驚人,經熟練的視頻編輯人員進行進一步調整后,還可使其看起來更加真實。
深度偽造視頻使用了被稱為“生成建模”的機器學習技術,其允許計算機在生成具有統計相似性的假實例之前從真實數據中學習。最新的深度偽造技術擁有兩個神經網絡——生成對抗網絡(GAN),其共同工作可產生更有說服力的虛假視頻。
美國國防高級研究計劃局(DARPA)為此設立了“媒體鑒證”項目,以開發能識別深度偽造視頻的工具。該項目最初旨在實現現有鑒證工具的自動化,但最近將重點轉向了人工智能生成的虛假視頻。項目負責人馬修·特魯克表示,研究人員已在GAN操縱的圖像和視頻中發現了微妙的線索,從而使其能夠檢測到變化的存在。
紐約州立大學奧爾巴尼分校呂思偉教授領導的團隊開發了一種非常簡單的識別技術。研究人員在觀察深度偽造視頻時發現,GAN技術生成的人臉很少眨眼,其一旦眨眼,眼球運動很不自然。這是因為,深度偽造視頻是基于對靜止圖像的訓練生成的,而靜止圖像的眼睛一般來說都是睜著的。
參與DARPA媒體鑒證項目的其他團隊也在探索自動捕捉深度偽造視頻的類似技巧,如奇怪的頭部動作、特別的眼睛顏色等。
達特茅斯大學數字鑒證專家漢尼·費瑞德認為,視頻偽造者和數字偵探之間的人工智能博弈才剛剛開始,機器學習系統經訓練后往往可超越新的鑒證工具。呂思偉表示,熟練的偽造者可通過收集顯示一個人眨眼的圖像來繞過他的眨眼工具,但其團隊目前已經開發出一種更有效的新技術,要比偽造技術略勝一籌。(馮衛東)
責任編輯:fl
(原標題:科技日報)
查看心情排行你看到此篇文章的感受是:
版權聲明:
1.凡本網注明“來源:駐馬店網”的所有作品,均為本網合法擁有版權或有權使用的作品,未經本網書面授權不得轉載、摘編或利用其他方式使用上述作品。已經本網授權使用作品的,應在授權范圍內使用,并注明“來源:駐馬店網”。任何組織、平臺和個人,不得侵犯本網應有權益,否則,一經發現,本網將授權常年法律顧問予以追究侵權者的法律責任。
駐馬店日報報業集團法律顧問單位:上海市匯業(武漢)律師事務所
首席法律顧問:馮程斌律師
2.凡本網注明“來源:XXX(非駐馬店網)”的作品,均轉載自其他媒體,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責。如其他個人、媒體、網站、團體從本網下載使用,必須保留本網站注明的“稿件來源”,并自負相關法律責任,否則本網將追究其相關法律責任。
3.如果您發現本網站上有侵犯您的知識產權的作品,請與我們取得聯系,我們會及時修改或刪除。