每日最新頭條.有趣資訊

這是什麽神仙算法,居然打敗了“深度換臉”

深度換臉視頻以假亂真,危害網絡安全。

所幸最近有一門先進的計算機科學擅長辨別假視頻:用算法識別視頻的處理痕跡;並在照片或視頻中添加特殊設計的噪點,通過欺騙人臉檢測算法起到抵禦作用。

有望從源頭上消滅“深度換臉”。

深度換臉(deepfake)視頻往往相當逼真,未經專業訓練,肉眼很難辨別。不管是作為個人復仇的工具,還是為了操縱金融市場,抑或是破壞國際關係的穩定,換臉視頻都從根本上顛覆了我們一直堅信的“眼見為實”。

但這種顛覆將到此為止。

大部分深度換臉視頻的製作過程是這樣的:向一個計算機算法展示同一個人的多張圖像,然後讓它利用所看到的圖像,生成新的人臉圖像,同時合成這個人的聲音。因此,其聲音和畫面都能達到以假亂真的效果。

早期的深度換臉視頻沒有考慮到正常人眨眼的次數,筆者的研究團隊能夠偵測出這類假視頻。但如今的換臉視頻已經更新換代,所以我們的研究也在不斷推進。

現在,我們可以通過仔細觀察特定幾幀畫面的像素,識別視頻的處理痕跡。此外我們還更進一步,開發了一項積極措施,保護個人免受換臉視頻所害。

尋找瑕疵

在最近的兩篇研究論文中,我們探討了如何檢測帶有瑕疵的深度換臉視頻,並且這些瑕疵是偽造者無法輕易修複的。

當深度換臉視頻的合成算法生成新的面部表情時,新圖像中人的頭部位置、光照條件以及人到相機的距離並不總是與源圖相匹配。為了使這些假面孔融入周圍的環境,偽造者必須對它們進行幾何變換,包括旋轉、調整大小或以其他方式扭曲,最後生成的圖像就會產生數位失真。

在經過“大整”的視頻中,你可能會看出失真的痕跡,比如模糊邊框和人工磨皮,看起來明顯被修改過。而即使是“微整”的視頻,也會留下證據。

我們已經訓練了一套算法,能夠識別人眼區分不了的失真。

如果換臉視頻中的人沒有直視攝影頭,這些失真痕跡就會發生變化。拍攝真人的視頻會顯示其面部在三維空間中的移動狀態,但深度換臉算法還沒法在三維空間裡製作人臉。相反,它們只能生成一張常規的二維人臉圖像,然後嘗試旋轉、調整大小和扭曲圖像,使其與人的視線方向保持一致。

在這方面,它們的火候也還不夠,這就為偵測提供了機會。我們設計了一個算法,能夠計算圖像中人的鼻子指向哪個方向,還可以根據人臉輪廓測量出頭部的方向。在真人視頻中,這些方向都是彼此對齊的。但深度換臉視頻往往會出現錯位。

當計算機把尼古拉斯·凱奇(Nicolas Cage)的臉安在伊隆·馬斯克(Elon Musk)的頭上時,它可能無法將臉和頭正確對齊。

抵禦偽造

偵測深度換臉視頻這門科學實際上就是一場軍備競賽。偽造者的杜撰能力會越來越強,所以,我們的研究也要努力跟上,甚至領先一步。

假如能夠找到一種方法,影響生成換臉視頻的算法,削弱其能力,那麽我們就能更好地識別出假視頻。

最近,我的研究團隊就做到了。

在上圖中,左圖是我們處理之前的圖像,算法可以輕鬆檢測到人臉。在中間的照片裡,我們添加了一些干擾因素,使算法檢測到其他人臉,但檢測不到真實的人臉。右圖顯示了我們對圖像進行的更改,已增強30倍。

人臉圖庫是由算法組合而成的,這些算法處理了數千張在線照片和視頻,並使用機器學習檢測和提取人臉。計算機看到一張班級合影,就可能偵測出所有學生和老師的面孔,然後把這些面孔添加到圖庫中。當圖庫中有了大量高品質的人臉圖像時,最終的深度換臉視頻就更有可能成功騙過閱聽人的眼睛。

我們找到了一種方法:可以在數位照片或視頻中添加特殊設計的噪點。這些噪點人眼不可見,但卻可以欺騙人臉檢測算法。它可以隱藏人臉探測器用於定位面部的像素模式,並在沒有人臉的地方(比如一小片背景或衣服上的一塊正方形)創建“誘餌”,暗示這裡有一張臉。

真臉少了,“假臉”多了,訓練數據就會受到汙染,深度換臉算法生成假臉的能力也會隨之減弱。這不僅延緩了深度換臉視頻的製作過程,也能夠增加視頻瑕疵,降低檢測難度。

未來,我們希望能把這個算法應用到任何用戶上傳至社交媒體或其他在線站點的任何圖像上。在上傳過程中,算法可能會詢問對方:“你想保護這個視頻或圖像中的人臉不被用於深度換臉嗎?”如果用戶選擇“是”,那麽該算法就會給視頻或圖像添加數字噪點。網上的人還是可以看到其中的人臉,但在試圖模仿它的算法面前,它們又被有效地隱藏了起來。

翻譯 | 李美玉

編輯 | 一塊糕

圖片 | 網絡

挖掘創新是《快公司》一以貫之的行事方法論,然而,關於“創新是什麽”,“創新在哪兒”的議論往往莫衷一是。其實,創新本就是一場沒有邊界和限制的頭腦風暴,每一次刷新都是顛覆。我們一直在尋找創新路上的並肩者,他們與眾不同,不墨守成規,他們是這場風暴的中心。如果您身邊有這樣不懈嘗試的“風暴發起者”,歡迎報名2019中國商業最具創意人物100榜單。

獲得更多的PTT最新消息
按讚加入粉絲團