每日最新頭條.有趣資訊

美國防部研發識別虛假影像及影片的取證工具

近日,由美國防部負責的一個項目成功研發出一種取證工具,可用於甄別人工智能製造的虛假新聞及影片。

1

偽造影片技術

目前,人工智能技術發展日新月異,迫使取證專家尋找檢測機器學習人類偽造影片的方法。製造假影片最常見的手段,就是通過機器學習,將人臉“移花接木”。這種“深度偽造品”如果由影片編輯人員進行加工,便可以假亂真。

這種影片技術最近有了更新,兩種被稱為“生成對抗性網絡”(GAN)的神經網絡,可聯合製作出更為逼真的假影片。DARPA負責“媒體取證”項目的馬修·塔瑞克表示,在GAN操縱的影像和影片中發現了微妙的變化。

GAN網絡由兩部分組成。第一個為“生成模型”,學習數據集中的統計模式,比如一組影像或影片,然後生成相似度超高的合成數據。第二種稱為“識別模型”,可識別造假內容。由於GAN網絡的設計已經超越了人工智能系統,因此尚不清楚是否有自動系統能夠捕捉到它們。

2

取證工具研究

這一檢測“深度偽造品”的工具由美國國防高級研究計劃局(DARPA)負責研發,名為“媒體取證”。研究的初衷是使既有的取證工具自動化,但最近研究人員將研究方向轉移到了AI偽造的取證上。

紐約州立大學的呂思偉在研究幾個“深度偽造”影片時發現,假影片中的人幾乎很少眨眼,即使眨眼,眼球運動也是不自然的。這是因為深度仿冒者接受的是靜態影像訓練,而靜態影像往往顯示的是睜著眼睛的人。

參與DARPA該項目的其他人目前正致力於檢測“深度偽造”影片難以模仿的臉部生理信號,並且探索自動捕捉假影片的類似技巧,例如檢查數字檔案,尋找兩個影像或影片被拚接的跡象;獲取奇怪的頭部動作、奇怪的眼睛顏色;觀察影像的亮度及其他物理特性,尋找內容偽造跡象等等。

3

取證技術的未來

塔瑞克表示,DARPA將舉辦更多的科技競賽項目,以確保研發中的科技能夠檢測到最新的造假技術。取證工具的出現象徵著偽造影片和數字偵探之間的人工智能武器競賽。專家表示,機器學習系統經過人類開發,有超越取證工具的可能。

來源:美國Technology Review網站/圖片來自互聯網

軍事科學院軍事科學資訊研究中心張彩

如需轉載請注明出處:“國防科技要聞”(ID:CDSTIC)

覺得不錯,請點讚↓↓↓

獲得更多的PTT最新消息
按讚加入粉絲團