每日最新頭條.有趣資訊

“原諒寶”後又現“一鍵脫衣”,技術作惡該怎麽解決?

DeepNude、DeepFake和原諒寶的故事告訴我們,技術可以前所未有地、輕而易舉地使人擁有權力,他們可以通過大數據操縱任何一個普通人的生活,讓你感到恐懼,讓你的隱私變成商品公之於眾。

作者 | 石燦

編輯 | 鐵林

DeepNude(深度裸體)App的出現,令美國女性感到害怕。四天的時間,這種害怕擴散演變成了全球性恐慌。

一名叫阿爾貝托的程序員開發出了這款應用。只要你給DeepNude一張女性圖片,借助神經網絡技術,它就可以自動“脫掉”女性身上的衣服,顯示出那位女性的“裸體”來。

有人問,DeepNude能對男性造成直接傷害嗎?從目前的情況來看,不會。它只能處理女性圖片,即便上傳男性圖片,最後輸出的圖片中,關鍵隱私部位也會顯示為女性。

“低級需求下產生的應用,是有原罪的。”

6月23日,DeepNude在一個網站上首度被展示,上面羅列了人們該如何下載並使用這款軟體的步驟信息。

DeepNude有免費版和50美元付費版,使用免費版獲得的圖片會有較大水印,付費版不會出現較大水印,但在圖片左上角會加上“FAKE”的小logo。

使用者無需任何專業知識,就可輕而易舉地使用,技術削低了準入門檻。有人好奇了問:DeepNude是怎麽誕生的?

兩年前,開發者阿爾貝托發現了人工智能的潛力,開始研究這門技術的基礎知識。當他知道人工智能技術能將白天照片轉換成夜間照片時,他意識到,自己可以將一張穿著衣服的女性照片,轉換成另一種模樣的照片。

阿爾貝托在接受《Motherboard》的採訪時說,DeepNude基於加州大學伯克利分校研究者開發的開源算法pix2pix創建,並使用1萬張女性裸圖加以訓練。這一算法與人工智能換臉技術DeepFake算法相似,也和無人車技術所使用的算法相似。

他把這種發現滋生出來的結果理解為樂趣和熱情。憑借這兩個驅動力,他對穿著衣服的女性照片做了一次“卸裝”嘗試,並從中獲得了“有趣的結果”。

但這並不是讓他創建DeepNude的核心原因,到底是什麽讓它創建了一個飽受爭議的應用呢?

《Motherboard》的報導為我們解答了這一疑惑。

此前,阿爾貝托創業失敗了,在經濟上遭遇困境,“我問自己,是否能憑借這個算法技術賺到錢”?

答案是肯定的。

短短五天內,就有50萬人在使用DeepNude。巨大的流量一度使伺服器不穩定,導致付款出現問題。他一直在社交媒體推特上安撫用戶,“We had problems with payments. Please try later or use crypto.”(我們的付款出現問題,請稍後再試或使用加密。)

6月26日當天,用戶量太大,他被迫關閉伺服器。還說,在解決問題之前,不接受任何付款。

DeepNude推出四天后,阿爾貝托還沒意識到有人在用它做一些充滿惡意的事情。6月27日,連發了5條推特闡述團隊在努力維修DeepNude的下載通道和支付通道,“耐心點,我們將在未來發布越來越穩定的版本。”

即便如此,他們還是離線了,人們下載不了DeepNude,原因不是封禁,而是“因為我們沒有預料到這麽多訪問,我們的伺服器需要加強。”

DeepNude太火爆了。它能讓人輕而易舉地看到一些明星的隱私,哪怕是合成的。時間前進到6月27日晚些時間,阿爾貝托才被迫做出妥協,決定關停DeepNude。

“我們以為我們每個月都能以一種可控的方式銷售很少的DeepNude”,但“我們從未想過它會變成病毒,發展到了不可控的狀態”,“人們濫用它的可能性太高了,我們不想這樣賺錢”,“從現在起,DeepNude將不再發布其他版本,也不允許任何人使用它”。

阿爾貝托的口頭阻止令毫無效果,至今仍有DeepNude在網絡上傳播。

就在這一消息發布前幾小時,他還在認為“世界還沒有為DeepNude的到來做好準備”。

“‘世界尚未準備好’?我想你的意思是‘我們編寫了一個深刻攻擊性、令人毛骨悚然的應用程序,它基本上是一個濫用和侵犯人們隱私的應用程序,我們很抱歉’。”一位Twitter網友看起來很生氣,她不認同阿爾貝托的說辭。

“低級需求下產生的應用,是有原罪的。”國內一名叫“潘一先生”的網友譴責稱,DeepNude滿足的本就不是正當合法的需求。和真實圖像相比,如果說生成的照片與女性很像,那麽侵犯了女性的隱私權;如果說不像,則可能侵犯女性的名譽權。

世界永遠不應該為像DeepNude這樣的應用做好準備,而且也不應該這樣做。

但就在DeepNude被抵製之前,DeepFake(深度偽造,多用於換臉)技術也充滿了爭議。

楊冪和蔡徐坤都被“換臉”

去年12月,一段涉及漫威電影《神奇女俠》主演蓋爾·加朵的“成人短片”,在一個類似於貼吧一樣的美國網絡社區Reddit流傳,被諸多網友圍觀。製作這段視頻的人不是職業拍攝者,而是一名程序員,網名叫“deepfakes”。

他在業餘時間學習了DeepFake技術,用一些互聯網免費開放的工具和素材,將蓋爾·加朵的臉“移植”到了一名色情演員身上。蓋爾·加朵與那部“成人短片”產生聯繫,是非自願行為。

但那位程序員顯然是沉迷其中了。泰勒·斯威夫特、艾瑪·沃特森、斯嘉麗·約翰遜和麥茜·威廉姆斯等在美國家喻戶曉的女明星都被換臉。

給女明星換臉,國內也出現過類似的網絡事件。那件事發生在今年初。

把楊冪推進換臉風波的人,在微博開通了一個叫“換臉哥”的账號。2月底,他把一段涉及楊冪的視頻上傳到網絡,引發熱議。視頻內容的主角原本是《射雕英雄傳》中黃蓉的扮演者朱茵,但他用DeepFakes技術把朱茵的臉換成了楊冪的臉。

一方面,很多人擔心自己會被同樣的技術裹入洪流,被人玩弄,開始譴責他;一方面,有人找到他,希望他幫忙做換臉技術,其中不少涉及違法犯罪。沒過多久,他與楊冪官方工作室溝通,並下架了相關視頻。

最為人熟知的換臉惡搞潮發生在今年初的“雞你太美事件”中,蔡徐坤展示自己興趣愛好的一段視頻,被網友換臉,他們還陸續推出了新的惡搞版本。蔡徐坤方面為避免被惡搞,還發出了律師函警告。

DeepFake的發展時間不長,在2017年底才興起的,被主流深度討論,也是那時。幾個月後,Reddit禁止上傳非自願色情內容,其他網站也禁止使用深度偽造非自願色情內容。

它的危害之一在於,技術權力毫無約束,像瘋狗一樣逮誰咬誰,很容易讓人被技術另一端的人支配。

演員斯嘉麗·約翰遜是世界上收入最高的女演員之一,以參演漫威系列電影而聞名,江湖人稱“黑寡婦”。她卻深受DeepFake之害。

《華盛頓郵報》稱,她的臉已經被匿名在線“創作者”嫁接到數十個圖形性愛場景中,他們正在使用免費的人工智能軟體來製作令人信服的逼真視頻。一個假視頻,被描述為真正的“洩露”鏡頭,已被觀看超過150萬次。

在現代名望的黑暗現實中,她擁有比大多數人更多的經驗。2011年,她被一名黑客洩露隱私,這名黑客後來被判處10年有期徒刑。

在線製作虛假的色情照片已經存在了幾十年。她在接受《華盛頓郵報》採訪時說,DeepFakes的崛起,已被用來騷擾和羞辱女性,這對於尋求在互聯網上保護自己的女性來說,是一個新的令人沮喪的挑戰。她對這一現象表示擔憂,將互聯網描述為“吃掉自己的巨大黑暗蟲洞”。

在英國,DeepFakes的生產者可能會因騷擾而受到起訴,但有人要求對某種特定犯罪行為進行深刻打擊。《衛報》稱,一位學術專家認為,根據真實人物的照片製作虛假的色情圖片應該成為修正法案中的刑事犯罪,以解決騷擾問題。

在美國,人們一直在追究身份盜竊,網絡跟蹤和復仇色情等各種指控,並討論了更全面的法規。目前,美國弗吉尼亞州率先對DeepFakes這些新應用采取了行動,擴大了其“復仇色情法”的範疇。修正後的法律於當地時間7月1日生效。

2014年,弗吉尼亞州對“復仇色情”的定義是,“以完全或部分裸體狀態惡意傳播另一個人的錄像或靜止圖像,意圖強迫,騷擾或恐嚇”。現在,這一法令包含了“DeepFake”,製作或操縱的視頻和使用機器學習製作的圖像。

現在的規定稱,未經許可分享某人視頻的裸照照片是違法的——無論是真實的還是偽造的。除了DeepFake,用Photoshop或其他工具製作的虛假照片、視頻也包含在內。

在現有狀況來看,這項法案保護的大多是女性。有數據顯示,大約有1000萬美國人受到復仇色情的威脅或成為其復仇的受害者。根據美國一家研究所2016年的一項研究,女性遭受男性威脅的可能性是男性的兩倍。

為什麽受傷的總是女性?

用“深度假”技術取悅人們

2018年8月13日,一個叫“原諒寶”的項目嶄露頭角,微博網友“將記憶深埋”發文稱,為了幫助碼農朋友們做一個初步過濾,他聯合了幾位朋友把1024、91等網站上的視頻和圖片打上標簽,進行人臉匹配。

在碼農界一直流傳著一個說法,很多碼農每天的時間都分配給了工作,加上天生情商不夠高,內心又想著找一個女朋友,在找女朋友方面,很不擅長。這可能導致一個情況,有些碼農找到的女朋友可能是“特殊工作者”,或者是“炮友”,或者是被偷拍女性,或者是其他情況。

發起者稱,“原諒寶”起到的一個作用就在於,鑒別對方有沒有出現在1024、PronHub等特殊網站上。

使用方法不難,你可以上傳一張照片到“原諒寶”,系統會自動匹配1024、PronHub等特殊網站上的數據,如果結果顯示“Fail”,意味著那個人的樣貌出現在了特殊網站上;如果顯示“Pass”,則是“幸運過關”。

消息一出,引來無數質疑和謾罵。“原諒寶”則為自己辯解,研發的目的是“為保護老實人而生”“接盤俠的福音”,可以解決戀愛中的信任關係。

5月27日,“將記憶深埋”說,“半年時間,100多TB數據, 利用1024、91、sex8、PronHub、xvideos 等網站采集的數據對比Facebook、instagram、TikTok、抖音、微博等社交媒體。我們在全球範圍內成功識別了10多萬從事不可描述行業的小姐姐。”

“知道這些素材夠判斷多少年嗎?”有人看到這條信息後發出質問。

“你知道什麽叫違法嗎?首先,我現在沒有傳播任何數據,其次,我沒有公布查詢接口洩露任何人的隱私。”“將記憶深埋”在微博中為自己辯解,“我居住在德國,色情產業是合法的”。

“將記憶深埋”的囂張氣焰並沒有變弱的趨勢。直到輿論緊逼,無數人湧入他的個人微博主頁,對其進行譴責。“將記憶深埋”不得不做出致歉,“我會刪除這個項目”,“100多TB數據在半小時內徹底清空”。

此事沒有就此終止,關於“原諒寶”以App方式轉世的消息卻傳了出來,“將記憶深埋”將此事與自己撇清,“本人沒有發布過任何手機端App”。但這些設計背後的動機天然針對女性,甚至於控制和羞辱女性。

我們習慣了太多事情了。對社交媒體習以為常的我們,早就接受了一個來自於技術世界的觀念:技術本身是沒有錯的,即便是技術被披上了狼皮,也是人的錯,它可以作惡,也可以行善。但在今年,科技向善的價值觀導向逐漸成為主流,即便有人在抨擊這一觀念非常模糊,也阻止不了它在這一階段的流行程度。

但DeepNude、DeepFake和原諒寶的故事告訴我們,技術可以前所未有地、輕而易舉地使人擁有權力,他們可以通過大數據操縱任何一個普通人的生活,讓你感到恐懼,讓你的一切網絡隱私變成商品公之於眾。它已經不再是一個單純的技術問題,而是一個社會信任問題,從個人信任到新聞信任,我們可能陷入一個再也無法確定媒體內容是否符合事實的時代。

“深度假”技術變得越來越流行,不論是在抖音、快手上的動畫特效,還是美顏相機裡面的貓咪耳朵,都變花樣兒地討好人們。如果說技術本身是中立,那麽道德的存在,就是為了引導技術別輕易成為“吃掉自己的巨大黑暗蟲洞”。

當《Motherboard》的記者向美國加州大學伯克利分校計算機科學教授Hany Farid展示DeepNude時,得知其發展到這種程度,他感到震驚。

他說,學術界和研究人員不得不更加帶有批判性的視角,考慮我們該如何推進技術,以便技術不被武器化,或以有害的方式被使用。

很多AI研究者也針對DeepNude事件發聲,大多是譴責。

“我很高興DeepNude死了。作為一個人和一個父親,我認為這是人工智能最令人作嘔的應用之一。”前百度首席科學家、史丹佛大學CS兼職教師吳恩達,在社交媒體發文表達了他的憤怒。

他還對AI社區說:“你擁的確有超能力,你建立的東西很重要。請將你的力量用在可以推動世界前進的有價值的項目上。”

(文中部分內容根據編譯資料整理)

石 燦

關注資訊社交平台、泛媒體領域

添加時煩請注明姓名、機構、職務

END

內容產業報導第一媒體

刺蝟公社是聚焦內容產業的垂直資訊平台,關注領域包括互聯網資訊、社交、長視頻、短視頻、音頻、影視娛樂、內容創業、二次元等。

獲得更多的PTT最新消息
按讚加入粉絲團