每日最新頭條.有趣資訊

人工智能距離準確識別仇恨言論還有多遠?

在聽證會上,參議員向祖克柏問道:“你能定義什麽是仇恨言論嗎?”然而這位33歲的創始人沒能直接給出答案:“這個問題真的挺難的。”

文 | 田思奇

“對於一個女生來說,你相當聰明啊。”顯然,這句誇獎背後的邏輯是“女生通常不夠聰明”,帶有一定歧視性意味。

倘若用戶不希望類似的冒犯性表達出現在社交媒體上,他可以將其標記出來,讓審核人員判斷是否應該刪除。但如果像Facebook創始人祖克柏所希望的,把最初的標記工作通通交給人工智能,那麽機器該如何自動辨認出這句話暗含的歧視?篩選關鍵詞“女生”、“相當”、還是“聰明”?

在4月10日出席數據泄露醜聞的國會聽證會時,祖克柏向參議員們表示,Facebook到今年底將雇2萬名審核人員監控並移除冒犯性言論。更引人注目的是,祖克柏指出Facebook將愈發依賴人工智能來標記社交媒體上的仇恨言論(hate speech):

我很樂觀地相信,在5到10年時間裡,我們就會利用人工智能更準確地識別語言上的細微差異。

從技術、機制和監管的角度考慮,祖克柏的這番表態是否過度樂觀?

定義仇恨言論是個難題

在聽證會上,共和黨參議員本·薩斯向祖克柏問道:“你能定義什麽是仇恨言論嗎?”這位33歲的創始人沒能直接給出答案:“這個問題真的挺難的。”

通常來說,仇恨言論是以性別、種族、宗教、性取向等特徵為基礎,以詆毀他人為核心的冒犯性表達,甚至有可能對被攻擊群體的人身安全構成威脅。

但同一句話在不同的時間、不同的場合,以及不同的人群心裡可能產生五花八門的解讀。對於絕大多數人來說,種族歧視是不可接受的,但這一判斷在幾十年前還頗具分歧。如果人工智能將主導仇恨言論的篩選,那麽它必然也要與時俱進。

澳大利亞新南威爾士大學人工智能教授沃爾什(Toby Walsh)對界面新聞表示,仇恨言論還和文化有關。例如在德國,否認猶太大屠殺的存在是違法的行為,但在美國憲法第一修正案保障言論自由的情況下,美國人可以合理地質疑猶太大屠殺。對此,沃爾什認為人工智能可以在不同國家接受不同的訓練。

紐約大學電腦教授戴維斯(Ernest Davis)則向界面新聞介紹說,雖然他沒聽說美國法律對仇恨言論下過定義,但至少現在許多領域都有明顯是仇恨言論的表達,人們已經產生不少共識。戴維斯認為,在可預見的未來裡,比如5年後,人工智能至少可以捕捉已經被人類標記過的同類型仇恨言論。

識別潛台詞難上加難

目前最受歡迎的機器學習方式——深度學習是一種訓練習得模式。工程師告訴深度學習系統許多好的和不好的例子,把好的例子拆分成單個詞語或句子,讓機器學會辨別這些詞語的關係,並由此構建複雜的是非分析網絡。

新聞網站Quartz報導稱,谷歌母公司旗下的Jigsaw已開發出名為Perspective的人工智能API接口來對抗充滿惡意的網絡表達。但這個系統並不完善,經常分不清負面詞語和仇恨言論。

例如在系統評估中,“垃圾車”(garbage truck)的仇恨指數高達78%,而“開打種族戰”(race war now)的仇恨指數僅為24%。上文所提到的“對於一個女生來說,你相當聰明啊”,仇恨指數為18%。

在Perspective剛發布的時候,Jigsaw表示,這個系統當前的最大弊端是被標記的數據太少,機器還沒有學會足夠多富有內涵的複雜詞語。比如“種族戰”在一些句子裡可能是仇恨言論,但在學術著作和歷史書裡卻不存在負面含義。

顯然,簡單識別關鍵詞的褒貶已經出現了問題,但理解常識和潛台詞更是難上加難。識別出語句的真實含義需要對世界有更加深入的理解,《麻省理工科技評論》文章指出,正是以所謂的“常識”為前提,語言才成為強大而複雜的交流手段。

一場持續的“軍備競賽”

同時,即使在語言識別中取得進展,仇恨言論和假新聞的製造者也會采取相同的反製措施來避免被識別。“加密法西斯主義者”使用隱喻等修辭技巧來使他們的內容看起來不那麽“法西斯主義”。例如,“藍精靈”據稱為加密法西斯主義的一個實例。

“這就是一場持續性的‘軍備競賽’,”電腦教授戴維斯告訴界面新聞。在他看來,仇恨言論和人工智能就是木馬病毒和殺毒軟體之間的關係。殺毒軟體製作者會分析病毒的攻擊模式,而病毒的製造者自然也會分析自己受到的反製措施。因此,發表仇恨言論的人會主動尋求全新的表達方式。等到這種表達方式變得很常見,人類已經可以標記出來時,人工智能才可以接受相應訓練並自動捕獲他們。

據《麻省理工科技評論》報導,為美國情報機構提供人工智能報告的公司Primer的CEO戈爾利(Sean Gourley)警告稱,從負面的角度來說,在不遠的將來,人工智能也會迅猛發展成為大規模製造精準假新聞的工廠。

2016年,微軟發布的Twitter聊天機器人Tay就曾不幸淪陷,被用戶“教壞”,成為一個飆髒話、散播歧視性言論的“反社會分子”。

另一方面,人工智能還可被用來生產假影片和音頻,而影片和音頻或許也將在未來成為隱藏仇恨言論的新媒介。2017年,華盛頓大學的研究人員便發布了美國前總統奧巴馬的“假演講”:利用人工智能模擬奧巴馬的口型,並植入研究人員想讓他說的話。

但人工智能教授沃爾什認為無需太過擔心,因為影像和聲音識別技術的發展日新月異。即便仇恨言論更換了媒介,那也不會成為多麽艱巨的挑戰。

戴維斯也指出,影片識別確實比較難,但現在語音轉文字的技術已經比較完善,同時還會持續發展。更何況,聲音會透露有關仇恨言論的更多資訊,比如人的語調。所以戴維斯認為,音頻識別不會比文字識別難得多,隻不過需要更多的算法支持,以及考慮到YouTube規模之龐大,人們需要花費更多的精力教會機器而已。

自我監管行得通嗎?

此前,Uber自動駕駛的致命車禍為人工智能帶來一定的信任危機。對於如何讓用戶放心地把仇恨言論交給人工智能這一問題,沃爾什指出,人們必須建立一個具有更高透明度的系統,它可以很好地自我解釋來贏得信任。同時這個系統還應具備簡便的退出機制。

更重要的監管問題是,誰有權決定機器應該學習什麽?如果設計算法的Facebook程式員應當負責,那麽他們已經出現了紕漏:美國媒體Gizmodo兩年前援引Facebook員工爆料稱,該公司常常故意打壓保守派的新聞——值得注意的是,Facebook地處加州矽谷,是著名的自由派票倉。

沃爾什認為,在充滿偏見的情況下錯刪仇恨言論,以及其他的公司過失裡,政府可以通過法規和罰金來參與其中。例如歐盟即將生效的《通用數據保護條例》(GDPR)將加強消費者對個人數據的控制和科技公司應承擔的數據泄露責任。如有違反,公司將會被處以一定比例銷售額的罰款,對於Facebook等科技巨頭來說將是一筆天文數字。

同時,一些歐洲國家早已對Facebook處理仇恨言論不當提出過批評,例如德國和意大利。去年,德國政府通過“反仇恨言論法”,要求社交媒體網站迅速采取行動。在Facebook、Twitter、YouTube等網站上出現的明顯違反法律的言論必須在24小時以內刪除,比較難辯別的言論也要在7天內得到處理,否則社交媒體網站將面臨最高5000萬歐元的懲罰。

沃爾什指出,目前社交媒體公司都是自我監管,但現在這已經行不通了。在媒體報導後,外界才知道Facebook自我審查刪掉了許多言論,“Facebook據說被稱為地球上最大的新聞機構,那麽它就必須和(美國)《紐約時報》、(法國)《世界報》、(德國)《時代》周報和《中國日報》采取同樣公開的、已知的(新聞審查)標準。”

獲得更多的PTT最新消息
按讚加入粉絲團