每日最新頭條.有趣資訊

AI進軍寫作界,是否會成為假新聞製造機?

AI研究有了新突破,研發團隊卻不敢公開,這是怎麽回事?埃隆·馬斯克(Elon musk)支持的非營利公司OpenAI拒絕公開發布研究結果引起大家的關注。原來,在團隊沉浸在成功的喜悅的同時,又開始擔心AI被濫用到假新聞上,畢竟現在AI寫出來的文本,幾乎很難分辨真實性。美國專欄作家帕金森(Hannah Jane Parkinson)體驗了這項技術,她表示,“我已經看到OpenAI的GPT2系統如何生成我風格的文章,我們必須注意馬斯克關於人工智能末日的警告。”

AI技術新突破——文章信手拈來

OpenAI是一家由埃隆·馬斯克、裡德·霍夫曼(Reid Hoffman)、薩姆·阿爾特曼(Sam Altman)等人支持的非營利研究公司。該公司表示,其名為GPT2的新人工智能模型非常完美,但是被惡意使用的風險非常高,以至於公司正在打破將全部研究成果公之於眾的常規做法,以便有更多時間來討論這項技術突破的後果。這個新系統可以編寫新聞故事和小說作品,被稱為“文本的深度贗品”(dee fakes for text)。

GPT2的核心是一個文本生成器。人工智能系統會輸入文本(從幾個單詞到一整篇文章),然後根據已有文字預測寫出接下來的幾句話。該系統正在突破人們認知的邊界,無論是在產出的質量方面,還是在廣泛的潛在用途方面。

當用於簡單地生成新文本時,GPT2能夠編寫與給定的樣式和主題相匹配的可信段落。OpenAI的研究主管達裡奧•阿莫德(Dario Amodei)表示,GPT2從研究的角度看具有兩個方面的開創性,一個是它的規模。與之前最先進的人工智能模型相比,這些模型“大了12倍,數據集也大了15倍,範圍也大得多”。它是在一個包含約1000萬篇文章的數據集上進行訓練的。

而GPT2所訓練的數據量直接影響了它的質量,使它更了解應當如何理解書面文本。這也導致了第二次突破——GPT2比以前的文本模型更通用。通過對輸入文本進行結構化,它可以執行包括翻譯和總結在內的任務,並通過簡單的閱讀理解測試,通常表現得與專門為這些任務構建的其他人工智能一樣好或更好。

OpenAI的研究員亞歷克•雷德福(Alec Radford)認為GPT2的成功是人類與機器之間總體上更順暢溝通的一步。他說,這個系統的目的是讓電腦更好地掌握自然語言,這可能會改善語音識別(如Siri和Alexa)等任務。

目前,傳統的新聞機構——例如彭博社和路透社——已經具備了由機器撰寫新聞的能力。這將在財經和體育新聞領域發揮作用,因為在這些領域事實和數據往往佔據主導地位。因此,儘管這項應用的初衷是為記者騰出時間,從事分析性更強、研究更深入的報導,但它可能反過來引起新聞編輯的恐慌。

同時,這對整個新聞業來說,可能也不是一個好消息。目前,新聞業正艱難應對廣告收入不斷下降、虛假新聞導致的公眾不信任、越來越多的黨派性讀者和消費者行為的轉變、侵犯版權和互聯網剽竊、政治攻擊(川普稱,媒體是“人民的敵人”)等諸多問題,機器可能讓新聞業徹底破產。

“假新聞”會成為下一個全球政治威脅嗎?

同時,潛在的假新聞撰寫可能性也使得OpenAI違背了其推動人工智能向前發展的職責,在不能確定惡意用戶會如何使用GPT2之前,研究人員不會廣泛應用GPT2。“我們需要進行實驗,看看他們能做什麽,不能做什麽。”該公司的政策主管克拉克(Jack Clark)說,“如果你不能預測一個模型的所有能力,你必須刺激它,看看它能做什麽。有很多人比我們更善於思考它可以惡意做什麽。”

為了說明這意味著什麽,OpenAI做了一個版本的GPT2,並做了一些適度的調整,可以用來生成對產品無限的正面或負面評價。垃圾郵件和假新聞是另外兩個明顯的潛在缺點,人工智能未經過濾的特性就是如此——由於它是在互聯網上訓練出來的,因此鼓勵它創作偏執的文本、陰謀論等等並不難。

克拉克表示,這些擔憂中最主要的是,該工具可能被用於大規模傳播虛假或誤導性信息。在眾議院情報委員會(House intelligence committee)最近就人工智能生成的虛假媒體的威脅舉行的聽證會上,克拉克表示,他預計,這項技術將“被用於製作(字面上的)假新聞”,並可能模仿人在線生產大量的文本,或者在社交網絡上製作惡意宣傳文章”。

但是隨著GPT2在網上的傳播,越來越多的人開始使用它,他們使用這個工具創建從貼吧帖子、短篇小說和詩歌到餐館評論的一切東西。

未來要保證信息的真實性只會越來越難

目前,OpenAI的團隊也在努力解決他們的強大工具可能會讓互聯網上充斥虛假文本的問題,畢竟這項技術讓我們更難知道我們在網上閱讀的任何東西的起源。克拉克說:“科技讓造假變得更便宜、更容易,這意味著未來要保證信息的真實性只會越來越難。”

OpenAI的擔憂正受到一些人的重視。艾倫人工智能研究所(Allen Institute for Artificial Intelligence)的一組研究人員最近開發了一種檢測假新聞的“神經系統”工具。參與該項目的華盛頓大學計算機科學教授崔葉婧(Yejin Choi)表示,檢測合成文本實際上“相當容易”,因為生成的文本具有“統計特徵”,幾乎像指紋一樣,很容易識別。

紐約數據與社會研究所(institute Data & Society)的研究員布裡特•帕裡斯(Britt Paris)擔心,儘管這種數字取證技術很有用,但這種解決方案會誤導人,將假新聞定性為技術問題,而實際上,大多數虛假信息都是在沒有複雜技術幫助的情況下在網上創建和傳播的。

她說:“我們已經有了很多產生虛假信息的方法,在沒有機器幫助的情況下,人們可以很好地傳播這些信息。”哈佛大學伯克曼•克萊因互聯網與社會中心(Berkman Klein Center for Internet & Society at Harvard)聯席主任約查•本克勒(Yochai Benkler)對此表示讚同,並補充說,虛假新聞和虛假信息“首先是政治文化問題,而不是技術問題”。他說,解決這個問題並不需要更好的檢測技術,而是需要對使假新聞成為現實的社會條件進行檢查。

本克勒還表示,最具破壞性的假新聞是由政治極端分子和網絡流氓撰寫的,而且往往是關於“引發深層次仇恨”的有爭議話題,比如選舉舞弊或移民問題。雖然像GPT2這樣的系統可以大規模地生成半連貫的文章,但要複製這種心理操作,還有很長的路要走。“大規模生成虛假文本的簡單能力不太可能影響大多數形式的虛假信息。”其他專家表示,OpenAI誇大了GPT2的惡意潛力,是為了炒作他們的研究。

無論GPT2或類似的技術是否會成為OpenAI所擔心的假新聞機器,越來越多的人一致認為,在技術發布之前考慮其社會影響是一種很好的做法。與此同時,到底應當如何正確使用準確預測技術依然困難重重。

iWeekly周末畫報獨家稿件,未經許可,請勿轉載

獲得更多的PTT最新消息
按讚加入粉絲團