每日最新頭條.有趣資訊

Deepfake AI換臉,一場“貓和老鼠”的追擊戰

數月前開始,關於“AI換臉“的話題時不時地登上熱搜,網友們一邊對這一科技大法respect,一邊調侃XX明星的演技。

按理說,科技為大眾帶來娛樂的祥和氛圍挺好的,不過,是時候換個角度來看看這種技術帶來的一些偏門應用。

網上熱傳的換臉神器,是一種利用更深度學習技術識別和交換圖片、視頻中人物臉部圖像的工具,被稱為深度偽造,也就是Deepfake,它不僅製作過程簡單而且逼真度驚人。

普通大眾接觸到的Deepfake已經是通過它製作出來的成品,比如徐錦江版的海王、復活的張國榮,被楊冪版黃蓉。

在Deepfake出現前,視頻換臉技術最早最廣泛的應用還是在電影領域,那時它需要相對較高的技術和資金。

現在Deepfake降低了這一門檻,它真正廣泛出現在大眾視野裡是因為Pornhub上流行的Deepfake系列視頻。

Deepfake算法的偏門應用

最初一些少數技術精英們,為了傳播Deepfake技術在Reddit上創辦了論壇。

不過在討論技術學習的路上,Deepfake的黑暗面逐漸顯露,大家發現這種換臉技術還有一個細分方向:滿足私欲。

由Deepfake推動的色情生意病態發展,訂製色情片泛濫,從明星到路人,後來還延伸到了色情復仇。

Deepfake的色情生意並不是“隔海相望”,這種色情交易早已蔓延到國內,成為隱形的地下生意。

Deepfake的技術應用開發並未止步於色情視頻換臉。

據美國科技媒體Motherboard 6月27日報導,一名程序員又開發了名為“Deepnude”的應用,上傳一張女性照片,神經網絡技術可“自動”脫掉她的衣服。

這個軟體目前只能處理女性的照片,裸露越多,處理效果越好。上傳男性照片依然會被處理替換成女性身體,卡通圖片則無法識別。

開發此款應用的程序員表示,該應用由其開發的開源算法pix2pix創建,這一算法與之前的人工智能換臉技術deepfake算法相似,Deepnude隻用了1萬張女性的裸照進行訓練,之後會考慮創建男性版本,而繼續這個實驗的也是為了在這個算法上獲得經濟回報。

顯然,Deepnude在侵犯著眾人隱私,甚至將每個人暴露在色情報仇的危險之中,而女性成為首個被攻擊的群體。類似的算法偏門應用可能還會不斷出現,Deepfake的開發依舊離不開生理需求的主導。

反識別Deepfake提上日程

可悲的是,無數關乎女性的Deepfake系列應用和視頻並未能讓大眾產生危機感,當換臉視頻波及到更廣泛的人物,成為篡改視頻的技術手段,進而萌生技術犯罪趨勢的時候,大家才開始慌張。

想要得到一個換臉視頻並不複雜,例如圖中希拉裡版川普的視頻僅使用了一種名為FAKEAPP的軟體,放入圖片視頻即可一鍵生成,不懂編程的人閱讀操作流程後都可輕易上手。

對此,美國《通信規範法》第230條:“互動式計算機服務提供者或使用者,就非出於己的信息內容,不應被視為內容的出版人即發表人。”這條規則可能要因為Deepfake而改變。

美國國防高級研究計劃局為此設立了“媒體鑒證”項目,以開發能識別Deepfake的工具,項目最初旨在實現現有鑒證工具的自動化,後來將終點轉向了人工智能生成的虛假視頻上。

由Deepfake到鑒別Deepfake製造的虛假視頻,展開了一場“貓和老鼠”的技術追擊戰。

近期,加州大學伯克利分校和南加州大學的研究人員打造的AI識別系統可尋找每個人的“軟性生物識別”標簽,在這場博弈賽中取得了階段性的取勝。

雖然,Deepfake技術發展迅猛,此前“無法眨眼”的問題已經得到改善,但研究人員發現,人們在說話時產生的頭、手、眼睛、嘴唇的微妙變化是Deepfake在創造虛假視頻時暫未考慮到的元素。

背後的原理為,不同人在說話時會表現出相對不同的面部和頭部運動模式,Deepfake由模仿算法控制會打破這些模式,導致嘴巴與頭部面部等部分形成不自然的分離。

基於此,這項鑒別技術構建了高度個人化的“軟生物識別指標”。檢測實驗中,該鑒別技術的總體識別率超過了95%。

接下來,研究人員將著手聲音特徵進一步提高AI識別假視頻的技術。

基於希拉裡(棕)、奧巴馬(淺灰帶框)、桑德斯(綠)、川普(橙)、奧倫(藍)隨即任務(粉)、奧巴馬Deepfake假視頻(深灰帶框)的190-D特徵的而為可視化散點圖。

這只是Deepfake博弈中,鑒別技術的一個短暫領先,軟生物識別指標的可靠性一定程度上仍然會受各類元素的影響,例如背景環境、鏡頭位置等。在這方面造假技術很可能又會迎頭趕上,更多基於Deepfake算法的新應用又會出現,例如前面提到的Deepnude。

在這場複雜程度不斷增加的安全博弈中,攻擊會被防禦反擊,反過來又被更複雜的攻擊所抵消。

從國外引起的女性隱私侵犯,到國內有B站泛濫的明星換頭惡搞視頻,我們正在為Deepfake破壞的秩序付出代價。

Deepfake的損害不只是換臉

在AI深度學習第一個站出來給自己一巴掌的,是被稱為亞洲四大邪術的Photoshop。

Adobe在6月中旬推出了反PS工具。依托於AI算法,這個工具目前僅支持用於識別經液化處理圖片,可自動識別出人像照片中被修改的部分,還能把它還原成到初始樣貌,準確率高達99%。

此前Adobe也公布過識別圖片是否經過拚接、複製、刪除的AI。

這次研究人員通過編寫Photoshop腳本簡歷大量圖像訓練集,通過網絡上抓取的圖片使用面部感知液化調整,隨機選擇這些照片的子集進行訓練。同時還聘請藝術家改變相關參數到數據集中。

Adobe表示,這項研究成果並不會立即轉變為商業產品,只是為更好地監測圖像、視頻、音頻做出的一步努力。

其官網給出了更明確的解釋:

Adobe為用戶提供工具,釋放想象力,讓他們將想法變為現實,對此我們對Adobe作為創意工具在世界上的影響力感到自豪,但同時也意識到這項科技延伸的潛在道德問題。虛假內容已經成為日益緊迫的嚴重問題。

Adobe所指的虛假內容,影射的正是Deepfake。在建立機器學習應用後,需要確保它足夠安全,AI 裡的Deepfake急需另一個AI來鉗製,然而現實裡Deepfake的鑒別速度永遠要比造假慢幾拍,我們已經生活在一個安全問題暴露的世界裡。

而Deepfake深度偽造技術存在的真正損害,不止是隱私侵犯、數據盜竊、色情內容亦或是政治上,它正在加速挑戰著互聯網數據真實性的邊界。

想象一下,未來無數機器學習分析的很可能來源於Deepfake的假數據,它的存在是對虛擬的網絡世界裡關於“真實”最迫在眉睫的威脅,而這種影響可能用各種對抗識別鑒定方法都難以彌補。

今天有人有興致把朱茵的黃蓉換成楊冪的臉,以後就不好說了。

獲得更多的PTT最新消息
按讚加入粉絲團