每日最新頭條.有趣資訊

圖靈獎得主:人工智能在被濫用,自我監管行不通

從深度學習的寒冬走入爆發期,今年三位圖靈獎得主跋涉過了數十年歲月。

當圖靈獎把榮耀頒予深度學習,奠基人之一、加拿大計算機科學家Yoshua Bengio卻日漸感受到濫用AI的危險,比如威權政府的監控和無人機殺手。在三位深度學習奠基人之中,唯有Bengio全職留在學界。他在加拿大蒙特利爾大學任教,並帶領由Google資助的蒙特利爾算法學習人工智能實驗室(MILA)。

Bengio認為,在軍事實驗室、安全組織、為政府或警察提供服務的私營公司中,人工智能正在被濫用。技術本無善惡,但日漸強大的人工智能如同一柄雙刃劍,終將同時擁有推動科學進步和破壞人類社會的力量。

因此,2018年12月,在人工智能和機器學習的盛會NeurIPS上,Bengio提出了人工智能的一系列道德準則,被稱為《蒙特利爾宣言》。

最近,這位深度學習奠基人與《Nature》(《自然》)進行了一場對話,談及人工智能的方方面面,Bengio也重申了濫用人工智能的危險和應對措施。或許這位在人工智能方面的先行者,會啟發我們有一些不一樣的思考。

《Nature》:你是否看到很多公司或者國家不負責任地使用AI?

Yoshua Bengio:已經有很多這樣的事情,而且可能會有更多。所以我們必須在壞事發生之前警醒世人。許多最令人擔憂的事情並非在光天化日之下發生。它發生在軍事實驗室、安全組織、為政府或警察提供服務的私營公司中。

《Nature》:能舉一些例子嗎?

Yoshua Bengio:無人機殺手很讓人擔憂。這既有道德問題,也有安全問題。另一個例子是監控。你可以說它具有潛在的積極作用。但濫用的風險,特別就威權政府而言,是非常真實存在的。從本質上講,人工智能是一種工具,可以被掌權者用來鞏固權力,並且加強權力。另一個問題是,人工智能可以放大歧視和偏見,例如性別歧視或種族歧視。因為用來訓練AI的數據中就存在偏見,這受到人為影響。

《Nature》:什麽使蒙特利爾宣言與類似舉措有所不同?

Yoshua Bengio:我認為這個宣言最先納入了廣泛的群體,不局限於人工智能研究人員,而是廣泛引入社會科學、人文學科方面的學者,乃至公眾,並且是以深度參與的方式。這帶來了變化:由於與專家和公眾進行討論,我們將原則從7條改為10條。組織可以遵循這些原則。

《Nature》:什麽是最適合人工智能道德討論的平台?

Yoshua Bengio:我們正試圖在蒙特利爾建立能夠實現這個目標的組織:人工智能和數字技術社會影響的國際觀察站(The International Observatory on the Societal Impacts of Artificial Intelligence and Digital Technologies)。它應該納入以下所有行動者:政府,因為他們是可以采取行動的主體;民間-社會專家,既有人工智能技術專家,又有社會科學、醫療保健和政治科學專家;以及正在製造這些產品的公司。

但我們必須謹慎行事。因為當然,公司可能會把規則向他們的最低水準壓低。

《Nature》:你是否認為這一行動會推動頒布人工智能的政府或國際法規?

Yoshua Bengio:是。自我監管不會起作用。你認為自願征稅有效嗎?它沒有。與不遵守道德準則的公司相比,遵守道德準則的公司反而將處於不利地位。這就像開車一樣。無論是左側還是右側,每個人都需要以同樣的方式駕駛;否則,我們就會有麻煩。

《Nature》:你曾表達擔憂公司從學術界偷走了人才。這還是個問題嗎?

Yoshua Bengio:這還在繼續。但也有一些好事發生。我們在蒙特利爾取得了成功,因為人工智能的生態不斷發展,並且出現了一種人才逆向流動。人們從境外來到加拿大從事人工智能研究。

蒙特利爾正在發生另一件事,我認為世界其他地方也有這樣的情況。在業界工作的學術研究人員,正在承擔兼職教師的角色,他們輔導或幫助輔導大學離的研究生。MILA就有這樣的情況。

我們也在努力培養學生。我們在蒙特利爾的機器學習教授人數翻了一番。這部分要歸功於加拿大政府的人工智能投資策略。

《Nature》:你認為歐洲在人工智能方面落後於中國和美國嗎?

Yoshua Bengio:沒錯。但我不認為歐洲應該接受這一點。歐洲有巨大的潛力成為領導者。歐洲有優秀的大學。事實上,我們在MILA的許多學生來自歐洲。歐洲還有一個建立不久但是充滿活力的初創公司技術社群,分布在幾個地方。歐洲政府開始意識到人工智能的重要性。法國政府可能是第一個朝這個方向邁出重要一步的歐洲政府。

《Nature》:人工智能的下一件大事是什麽?

Yoshua Bengio:深度學習。目前深度學習在感知方面取得了巨大進步,但它在能夠理解高等級表征的系統方面,尚未有所突破——就是那些人類在語言中使用的概念。人類能夠使用這些高級概念,進行有力的歸納。甚至嬰兒都能做到這一點,但機器學習卻做的非常糟糕。

我們有能力推斷數據中實際沒有發生的東西。例如,我們在生成式對抗網絡方面取得了一些進展(這種技術是設置一個生成式網絡與圖像識別網絡競爭,以幫助二者改善表現)。但人類比機器要出色得多,我猜測,重要因素之一是人類對因果關係的理解。

獲得更多的PTT最新消息
按讚加入粉絲團