每日最新頭條.有趣資訊

Deepfake假視頻猖獗恐影響大選,美國眾議院欲修改法案

新智元報導

來源:venturebeat

編輯:張佳

【新智元導讀】曾幾何時,我們對視頻裡的內容深信不疑,而現在,有了Deepfake,再也不敢相信自己的眼睛了。如果Deepfake用在大選中會怎樣呢?聽聽美國國會和AI專家的見解。

近日,美國國會眾議院情報常設委員會與一個法律和人工智能專家小組進行了交談,討論了人工智能操縱媒體的潛力,如利用Deepfake削弱對民主機構和新聞媒體的公信力,以及外國對手用它干擾人們對於真實內容的感知。

參會者們很想知道,在即將到來的選舉年,如果民主黨總統候選人Joe Biden等深陷deepfake誹謗,或者媒體、情報機構或軍事組織再也不能核實視頻中所看到事件的真實性,會發生什麽。

在商業領域,聽證會上考慮的一個Deepfake情景是在IPO前發布的一段模仿CEO的惡意視頻,導致公司交易的第一天股票大跌。

攻擊性網絡時代已經到來

委員會主席、眾議員Adam Schiff (D-CA) 說:“即使後來確定他們所看到的是假的,那種負面印象也會揮之不去。”

Schiff和國會其他多名議員去年秋天呼籲聯邦政府對Deepfake采取行動。

“如果一個信息消費者不知道該相信什麽,他們不能從虛構中辨別事實,那麽他們要麽相信一切,要麽什麽都不相信。如果他們什麽都不相信,那就會導致長期的冷漠,這對美國是有害的,”外交政策研究所研究員Clint Watts告訴委員會。

Watts表示,社交媒體公司、州和國家選舉官員必須做好Deepfake視頻將在2020年選舉出現卻聲稱是聲稱投票機出現故障的準備。他說:“我認為攻擊性網絡時代已經到來。”

在情報委員會聽證會之前,川普總統發布了一段由Facebook支持的眾議院發言人Nancy Pelosi的篡改視頻,以及Facebook首席執行官馬克·祖克柏本周早些時候發布在Instagram上的一段Deepfake視頻,這兩個視頻都經過了詳細討論。

美聯社報導,電腦生成的圖片被用來偽造與美國公共政策和外交官員有關的LinkedIn檔案。新智元對此也進行了報導:《AI版007恐怖上演!間諜用GAN生成假頭像,大肆網釣政客大V》

皮尤研究中心美國趨勢小組在2月至3月進行的一項調查發現,假新聞被視為比暴力犯罪、種族主義、非法移民或恐怖主義更大的問題。

對抗Deepfake不僅是政府的事

與委員會交談的專家一致提出了共同標準,並在Facebook和Twitter等社交媒體公司之間分享信息,以對抗Deepfake。University of Maryland Francis King Carey School of Law教授Danielle Citron也希望修改《通信規範法案》(Communications Decency Act)第230條(現在大意為“互聯網服務不必為其用戶的行為負責”),使社交媒體平台必須采取“合理的內容節製”(Rational Content Moderation),以保留誹謗訴訟的法律豁免權。

Citron說:“我們不想進入一個思想市場失靈的地方。”當大法官Oliver Wendell Holmes提出思想市場(marketplace of ideas)的概念時,他是一個憤世嫉俗的人。他並不是在暗示真相總是會消失,他擔心人性,但在我們民主基礎上的更廣泛的努力是,我們可以有一套公認的真理,這樣我們就可以進行真正有意義的政策對話。我們不能放棄這個項目。”

研究工作正在各種環境下進行,以打擊Deepfake。作為DARPA媒體取證小組的負責人,去年,人工智能研究所主任David Doermann博士和研究人員,通過追蹤不規則眼球運動等方式開始創造AI系統,艾倫人工智能研究所(Allen Institute for Manificial Intelligence)還分享了Grover,一種聲稱達到92%準確率的Deepfake檢測算法。

Deepfake檢測研討會將在國際機器學習大會(ICML)和國際計算機視覺與模式識別會議(CVPR)上舉行,這兩個年度人工智能大會將在加利福尼亞長灘舉行。

儘管如此,Doormann表示,能夠操縱的生成模型(比如Facebook聽起來像比爾·蓋茨的MelNet或NVIDIA的StyleGAN製造假人臉)遠遠比能夠檢測操縱的多。Doermann同意社交媒體公司之間的共同標準是必要的,但個人標準才是最重要的。

“我們需要把工具和過程掌握在個人手中,而不是完全依賴政府或社交媒體平台來監管內容,”他說:“事實上,分享這些東西的人是問題的一部分,即使他們不知道。”

為此,Doermann支持教育公眾的努力,但也提出了一種可能性,即最終,對抗Deepfake“可能是一場永遠無法取勝的戰爭”

與該小組交談的專家包括OpenAI政策主管Jack Clark。OpenAI是一家創建於2015年的非盈利組織,擁有超過10億美元的支持,2月份由於擔心GPT-2語言理解模型可能被誤用而拒絕共享代碼。

Clark認為大型技術平台應該在個人账戶和平台層面上開發和共享用於檢測惡意合成媒體的工具,就像他們今天在網絡安全方面所做的那樣。標準化可以幫助那些似乎在“黑暗中摸索”政策以解決難題的社交媒體公司。

“我們將繼續對這一領域的技術進步感到驚訝,因為很多這方面的知識都是因為這些人(人工智能從業者)認為他們是萊特兄弟,你知道他們覺得,他們都在忙著創造東西,弄清楚他們建造的東西的二階效應是困難的,”Clark說:“因此,我認為我們確實需要構建基礎設施,這樣就有了一些第三方來衡量這些技術的進展,這樣就可以預測其他事情了。”

Deepfake並非一無是處,但需要謹慎使用

專家組幾乎一致同意,除了錯誤信息外,生成模型有積極的應用。用於模仿其他視覺訓練數據的合成數據正被Landing.ai和Element AI等公司用於改進具有少量數據的訓練AI系統。用於訓練AI系統的合成數據比實際數據更便宜且更容易收集。

該小組還提醒委員會,基本上任何擁有體面計算機的新手都可以訪問免費提供的開源軟體來生成Deepfake。 “deepfake”一詞源於2017年提供的軟體,用於將名人的臉放在色情明星的身上。

Citron還敦促政治候選人在即將到來的選舉年進行政治鬥爭時,避免使用Deepfake。

參考鏈接

https://venturebeat.com/2019/06/13/u-s-congress-targets-deepfakes-ahead-of-2020-election/

獲得更多的PTT最新消息
按讚加入粉絲團