每日最新頭條.有趣資訊

DeepFake 換臉術混淆視聽,攪亂美國政壇

最近,DeepFake 技術又一次站在了風口浪尖上。不只是因為它能在小電影上移花接木,而是立法者終於意識到它的可怕之處。

6 月初,一份有關馬克·祖克柏的假視頻在國外社交媒體 Instagram 和 Facebook 上廣為流傳。

視頻中的人,無論從相貌聲音,還是穿著打扮,都跟真的祖克柏幾無二致。他能眨眼,會用手勢,嘴/臉部動作和畫外音音軌高度吻合。乍看之下,幾乎找不到破綻,只是聲音有些奇怪。

圖 | 兩名英國藝術家製作了祖克柏的假視頻(來源:bill_posters_uk)

更早之前,美國眾議院議長南希·佩洛西也經歷了類似的事件。有人通過剪輯、拚接和慢放等手段製作了一段她的演講視頻,雖然沒有用到 AI 技術,但視頻中的她看起來有些神志不清,說話結結巴巴,語速緩慢,像是醉酒一樣。

這段視頻甚至引來了美國總統川普的嘲諷(兩人素來不合)。

圖 | 川普轉發佩洛西視頻,“佩洛西在新聞發布會上結結巴巴”(來源:Twitter)

令人不解的是,這些社交平台並沒有選擇第一時間屏蔽虛假視頻。事實上,正是因為 Facebook 拒絕撤下佩洛西的假視頻,才導致有人做出了其 CEO 祖克柏的假視頻,來考驗 Facebook 對虛假信息的衡量標準,看它會不會做出“自己打臉”的事情。

按照 Facebook 的官方回應,佩洛西的視頻“沒有違反平台的政策,因為所有人都可以自由表達自己(的想法),如果有第三方事實檢測工具認定視頻是假的,視頻就會被打上標簽,提醒用戶注意其真實性,而且還會在推送中降低權重。”

換句話說,Facebook 的態度就是:我們不會移除編輯過的假視頻,但會讓用戶知道它不是真的。

其他社交巨頭也都紛紛表態,Twitter 選擇了跟 Facebook 和 Instagram 站在一隊,不會刪除這些假視頻,而谷歌旗下的 YouTube 則為了保險起見,選擇了刪除視頻。

科技圈內部兩極分化的情況也引發了輿論熱議。有的人認為,縱容虛假信息流傳會造成更大的混亂,尤其在政治和外交問題上,因此必須嚴格管控。

也有人認為,這些視頻不會對某個個體造成實質性危害,貼上虛假標簽即可。如果今天刪除了它們,就會開創一個糟糕的先例,明天可能導致更嚴格的管控政策。

圖 | bill_posters_uk 不滿 Instagram 的做法,又上傳了新的假視頻,畫外音用詞更加激烈(來源:bill_posters_uk)

美國國會出手

美國國會也盯上了假視頻和它背後的 AI 技術,因為不僅是佩洛西,就連總統川普都曾受到假視頻的困擾。

與此同時,領英(LinkedIn)上還出現了一個疑似間諜的账號。她的名字是 Katie Jones,頭像是一個典型的白人女性,畢業於密歇根大學,在美國國際戰略研究中心(CSIS)工作。她的職場網絡雖然只有 50 多人,但裡面有美國參議員助理、副助理國務卿,以及美聯儲席位候選人兼經濟學家 Paul Windfree。

圖 | Katie Jones 的領英账號

根據調查,CSIS 根本沒有這樣一個員工,密歇根大學也沒有她的學位記錄,而且她聯繫網內的人都不認識她。肖像審查專家判斷,她的頭像很可能是用 AI 技術生成的假臉,很多特徵與 AI 假頭像高度吻合。

再結合她添加的人都是政府重要人物,專家普遍認為,其目的很可能是隱藏自己,從他們身上獲取信息,甚至添加更多位高權重的人物,將領英作為從事隱秘間諜活動的渠道。

圖 | 從圖片細節中鑒定假照片(來源:Twitter)

多名議員認為,如果對此類事件放任不管,不僅會影響到政治人物,還會傷害弱勢群體和少數族裔,甚至波及 2020 年的美國總統大選。

因此,美國國會召開了有史以來第一場有關 DeepFake 類技術的聽證會,會議已於 6 月 13 號結束,相關法案也已經醞釀了數月之久,頒布對該技術和社交平台的約束政策只是時間問題。

縱觀歷史,能受到如此待遇的技術並不多見,立法者如此大張旗鼓地針對它,足以看出它潛在的破壞力。

AI 換臉術如何走紅

如果放在 10 年前,恐怕很少有人會質疑一段視頻的真實性,尤其是人臉清晰可見的視頻。只不過隨著 AI 技術的進步,憑空造出一個以假亂真的人臉,替換視頻中的人臉,或者替換視頻中的整個人物,都早已不是遙不可及的事情,甚至可能有些過於容易了。

2017 年底橫空出世的 DeepFake 技術,雖然不是第一個實現換臉的技術,但卻是將 AI 假視頻帶入大眾視野的先驅。這是一種基於深度學習的偽造技術,適用於修改圖片和影像,可以實現人臉的移花接木。哪怕是動圖或視頻中的人物,也可以被替換成毫不相乾的另一個人。

圖 | 美國演員 Jordan Peele 用 Deepfake 技術“扮演”奧巴馬講話(來源:YouTube)

DeepFake 的走紅要歸功於腦洞大開的網友,他們在色情視頻中引入了 DeepFake 技術,將其中女主角的臉,替換成了一些當紅女明星的臉,蓋爾·加朵、艾瑪·沃特森、斯嘉麗·約翰遜和泰勒·斯威夫特等大牌女星都難逃一劫,紛紛被替換到了不可描述的場景中。

由於視頻中角色的臉部動作和視角變化較少,因此除了個別幀數出現渲染模糊和混亂的問題,DeepFake 的替換效果足以以假亂真。

圖 | 通過 DeepFake 技術,蓋爾·加朵的臉被加在了成人女星身上(來源:reddit)

不過,出於惡搞精神也好,獵奇心態也罷,這些人無疑是濫用了 DeepFake 技術,對當事人造成了傷害,而且維權無門。飽受其害的“黑寡婦”斯嘉麗就曾在公開場合表達了自己的憤怒和無奈。

鑒於其造成的惡劣影響,很多社交平台都開始封殺 DeepFake 視頻。該技術的開發者也在 GitHub 上呼籲,“不要將 DeepFake 的換臉技術用於色情視頻,它的價值並不在此。”

實際上,能夠製造假圖片和假視頻的 AI 技術不僅僅只有 DeepFake,相關技術在過去五年裡層出不窮。這都要歸功於另一項大名鼎鼎的深度學習技術:生成式對抗網絡(GAN)

這是一種讓兩個神經網絡“左右互搏”的技術,其中一個網絡負責生成物體,一個網絡負責判別物體,兩者通過不斷對抗來創造非常真實的虛構圖像、聲音或視頻。

自 2014 年 Ian Goodfellow 發明 GAN 以來,世界範圍內的很多深度學習團隊和企業都開始在上面添磚加瓦,各種 GAN 框架漫天飛舞。

在 DeepFake 出現之前,就已經有了基於 GAN 的 Face2Face 技術和 CycleGAN 模型。前者可以通過攝影頭捕捉人的臉部動作,然後實時轉移到現有視頻中的另一張人臉上,後者則可以改變圖片和視頻中物體或場景的樣貌,實現馬與斑馬之間的轉換。

圖 | Face2Face 模擬川普說話(來源:Face2Face)

類似的技術還有很多。UC 伯克利大學團隊的 Everybody Dance Now,融合吸收了很多種 GAN 框架的精髓,可以分分鐘讓舞蹈小白看起來像是舞王附身,堪稱是“舞蹈界的 DeepFake”。

圖 | 兩個不會跳舞的人在 AI 編輯下做出了有模有樣的舞蹈動作(來源:Everybody Dance Now)

NVIDIA的 StyleGAN,可以自動生成惟妙惟肖的圖片,適用於人臉、汽車、風景和動物等。對於人臉來說,StyleGAN 用來混合的特徵包括性別、膚色、臉型、姿勢、表情、胡須、是否戴眼鏡、頭髮長度和顏色等等。它雖然不是一個完美的模型,生成的圖片經常出現瑕疵,但總體上效果出眾。

有人用 StyleGAN 製作了一個網站 thispersondoesnotexist.com,每次刷新都會生成一張人臉圖片,偶爾還真會刷出現高顏值的人。唯一的問題是,這人不是真正存在於這個世界上的。上文提到的那個虛假的領英女性頭像,專家懷疑就是 StyleGAN 或者其他 GAN 框架的傑作。

圖 | NVIDIA SytleGAN 可以融合好幾張圖片特徵,創造出不存在的人(來源:NVIDIA)

AI 造假技術觸手可及,是福是禍?

除了主流的 DeepFake 和 GAN,還有很多 AI 技術可以用來生成視頻,像香港科技大學陳啟峰教授團隊的級聯優化網絡(CRN),僅憑一張簡單的場景布局圖片,就可以生成無數個高分辨率的圖像和視頻,還有三星 AI 實驗室讓靜態蒙娜麗莎和愛因斯坦圖片動起來的元數據框架。

然而,我們在感受 AI 技術帶來的驚喜的同時,也必須意識到一個問題:借著開源的東風和技術無罪的精神,AI 造假的門檻越來越低了。

圖 | 會張嘴說話的蒙娜麗莎(來源:三星 AI)

隨便在網上一搜“AI 換臉”,就會找到很多神經網絡訓練教程,如果有編程功底,從開源社區拿到代碼和數據就可以自行搭建框架和訓練。

即使不懂得如何構建神經網絡,看不懂晦澀的論文,甚至是不懂編程也沒問題,網上早就有 fakeapp 和 faceswap 等現成的換臉軟體,只要電腦硬體足夠強大,跟著教程走,自製簡單的換臉短視頻並不困難。

往好的方向看,這種趨勢降低了視頻製作的門檻,方便了大眾進行藝術創作,尤其是以惡搞為主要目的的視頻。在 B 站上就能找到很多高質量“AI 換臉”視頻,譬如把《復仇者聯盟》中的美國隊長改成“象牙山隊長趙四”,把雷神改成徐錦江,把《武林外傳》中的佟湘玉改成“黑寡婦”斯嘉麗。

圖 | B 站 AI 換臉視頻(來源:B 站 UP 主 AI 范娛樂)

拋開法律層面存在的爭議不提(涉嫌侵犯肖像權),如果我們用最大的善意去看待這些惡搞,製作者的初衷可能並沒有惡意,只是單純地想讓看客一笑,用 AI 技術滿足大家最豐富的腦洞和想象力,畢竟裡面沒有涉及到形象侮辱和名譽詆毀。

而且用的好了,我們還能看到“AI 復活張國榮”這樣的致敬作品。或許等技術更加成熟,越來越多逝去的名人會以“復活的”形式重新回到螢幕上。《速度與激情 7》中最後出現的保羅沃克就使用了類似的技術。

圖 | AI“復活的”張國榮唱歌(來源:B 站 UP 主 QuantumLiu)

但如果往壞了想,AI 技術被居心叵測的人利用,就會出現上文說到的濫用情況。比如把女明星的臉放在色情或暴力視頻中,用來偽裝成一個不存在的人,偽造一個從沒發生過的事,或者把一個人做的事放在另一個人身上,從而誤導不明真相的人,混淆視聽。

如何破解 AI 操縱信息的困境?

AI 技術的進步無疑是一件利大於弊的事情,技術本身不存在原罪。只不過我們必須制定配套的規則、規範和保護措施,才能有效避免技術濫用的情況發生,並且將發生時的損失降到最低。

美國議員正在起草的法案指出,整個 AI 產業,從上到下都必須參與其中。

首先,企業和研究機構需要開發對應的技術,用來有效識別虛假 AI 信息。網絡上的信息載體可以大致分為文字、圖片、音頻和視頻。不幸的是,每一種都被 AI 攻陷了。

OpenAI 的 GPT-2 模型可以生成流暢連貫的假文章,GAN 和 DeepFake 可以製造逼真的圖片和視頻,至於模擬聲音,可以用 RNN 等深度學習模型完成,搜狗就剛剛展示過即時變聲的酷炫功能。

不過我們可以用技術來對抗技術,用 AI 來對抗 AI。從本質上看,虛假信息的傳播問題可以有兩種控制方法:一是從源頭入手,尋找證據,查驗信息的真實性;二是從數字信息本身入手,檢查是否存在修改痕跡。

Adobe 就發明了檢測圖像是否經過 PS 的工具,可以用卷積神經網絡識別圖片有沒有被修過的痕跡。

圖 | 解鈴還須系鈴人,用 Adobe 工具判斷圖片是否被 PS 過(來源:Adobe)

美國國防部高級研究計劃局(DARPA)也早就注意到了 DeepFake,並且開發了一種 AI 工具,可以在 GAN 生成的視頻和圖像中捕捉微妙的生理信號線索,比如不自然的眼睛運動和呼吸頻率,從而識別假視頻。在 SytleGAN 和 BigGAN 還沒有誕生的時候,準確率甚至高達 99%,只是現在應該達不到這個水準了。

也有研究團隊發明了新的神經網絡模型 XceptionNet,用假視頻數據集訓練 AI,教它如何識別假視頻。在清晰度比較高的情況下,準確率高達 95% 以上。

然而“造謠動動嘴,辟謠跑斷腿”,打假不如造假吃香,學術界在對抗 GAN 方面做出的努力,仍然遠不及研究 GAN 的努力。據 DeepTrace 平台統計,2018 年,全球涉及到 GAN 生成圖像和視頻的論文多達 902 篇,而研究如何識別合成圖像和視頻的論文只有 25 篇,僅為前者的 1/36。

其次,社交平台必須承擔其監督和管理的責任,建立更完善的虛假信息檢測機制。

這就要求 Facebook 和 Twitter 這樣的社交平台拿出更積極的態度,而不是像現在這樣,遇到難以控制的虛假信息就貼上個標簽放任自流,甚至於連標簽都懶得貼,直到有媒體報導才後知後覺。

所謂的 AI 算法和大數據加持下的事實檢查工具,也遲遲沒有大規模使用,偶爾使用還會鬧出啼笑皆非的笑話,比如巴黎聖母院著火的視頻被 YouTube 識別為 911 事件,只好依賴效率低下的人力篩查。這次祖克柏和佩洛西的假視頻,到本文發稿時,也沒有在醒目的地方打上虛假信息的標簽。

圖 | 巴黎聖母院大火,被 YouTube 算法識別成 911 恐襲(來源:YouTube)

美國議員 Adam Schiff 認為,歸根結底,是因為現有法律沒有要求社交平台對平台上用戶發表的內容負責,他們沒有足夠的動力去改進。

因此,最後需要配合的就是立法和監管機構。相比近幾年 AI 技術的突飛猛進,配套的法律法規顯得有些落伍了。針對 AI 合成內容,如何監管,如何收集證據,如何判罰和量刑等問題都沒有確切的、詳細的、可操作的法律條款作為依據。

專家建議,應當讓社交平台采取合理的措施,保證內容的節製性,從而更有動力打擊 DeepFake 等技術製造的虛假信息。

不過,當這些條件都尚未成熟的時候,上網衝浪的我們都應該牢記一件事情:文字、圖片、音頻和視頻都有可能是偽造的,不能輕易地相信網絡上的信息。

或許這很可悲,但我們就跟斯嘉麗一樣無奈。

參考:

https://www.technologyreview.com/s/613676/deepfakes-ai-congress-politics-election-facebook-social/

https://www.theverge.com/2019/6/13/18677847/deep-fakes-regulation-facebook-adam-schiff-congress-artificial-intelligence

https://s3.eu-west-2.amazonaws.com/rep2018/2018-the-state-of-deepfakes.pdf?fbclid=IwAR0LJOSHFh7-EL2DjaRqiFWVZwGA7SWlVkStUKp4Yu3dG62AJGpY4Xj4b2c

https://www.theverge.com/2019/6/14/18678782/adobe-machine-learning-ai-tool-spot-fake-facial-edits-liquify-manipulations

https://www.technologyreview.com/f/613690/facebook-deepfake-zuckerberg-instagram-social-media-election-video/

https://www.theverge.com/2019/6/13/18677341/ai-generated-fake-faces-spy-linked-in-contacts-associated-press

https://arxiv.org/pdf/1808.07371.pdf

http://www.mittrchina.com/news/3684

請隨簡歷附上3篇往期作品(實習生除外)

獲得更多的PTT最新消息
按讚加入粉絲團