每日最新頭條.有趣資訊

AI 資深專家:我為什麽對機器學習“粉轉黑”?

編者按:人工智能的研究是當前科技領域的一大熱點,任何有關機器學習的新聞都能夠吸引人們足夠的關注。但人工智能領域一位科技先驅和資深專家Judea Pearl卻對這一領域的進步提出了尖銳的批評。Judea Pearl在上世紀曾幫助人工智能習得了概率,使其能夠做出關聯性判斷,但遺憾的是,如今人工智能仍然無法計算因果關係。訪談中,Judea Pearl還就人工智能未來的發展、如何判定其具有自由意志等問題做出了回應。本文作者KEVIN HARTNETT,原文題目How a Pioneer of Machine Learning Became One of Its Sharpest Critics。

Judea Pearl對人工智能的發展貢獻良多。在20世紀80年代,在他的努力之下,機器掌握了依據概率進行推理的能力。現在他是該領域最尖銳的批評者之一。在他的新書《?The Book of Why: The New Science of Cause and Effect》中,他認為人工智能由於不完全理解智力的本質而陷入瓶頸。

三十年前,人工智能研究面臨的一個主要挑戰就是編程機器如何將潛在的原因與一系列可觀察的條件聯繫起來。Pearl想出了一種名為Bayesian網絡的方法。Bayesian網絡使機器更學習有了實踐性意義,比如說有一個病人剛從非洲回來,發燒而且全身疼痛,那機器可能會得出他患有瘧疾。2011年,Pearl獲得了電腦科學領域的最高榮譽——圖靈獎,主要在於表彰他這項工作的成就。

人工智能發展路線上的瓶頸

但正如Pearl所見,人工智能領域目前陷入了概率關聯的瓶頸之中。如今,新聞吹噓著機器學習和神經網絡的最新突破,我們讀到的文章也是關於電腦掌握圍棋和學會駕駛汽車的。Pearl對此則頗為淡定,他認為如今的人工智能技術只是在前一代人成果的基礎上進行的微微更新——在一組大數據中發現隱藏的規律——罷了。他最近說:“深度學習領域所有令人印象深刻的成就都只是曲線擬合而已。”

現年81歲的Pearl在他的新書中闡述了智能機器如何思考的願景。他認為,關鍵在於用因果推理來取代關聯推理。機器需要的是瘧疾引起發燒的原因,而不是僅僅將發燒和瘧疾聯繫起來的能力。一旦這種因果關係框架確立下來,機器就有可能提出反事實的問題——在某種外界干涉條件下因果關係會如何變化——Pearl認為這是科學思想的基石。Pearl還提出了一種正式的語言,讓這種想法成為可能——這是21世紀版本的Bayesian框架,允許機器在概率的基礎上進行思考。

Pearl認為,因果推理可以使機器擁有人類水準的智力。他解釋說,它們能夠更有效地與人類交流,甚至可以成為具有自由意志和做惡能力的道德實體。最近,在San Diego的一次會議上,《Quanta Magazine》對Pearl通過電話進行了訪談。以下是經過編輯和精簡的對話。

Kevin Hartnett:為什麽給你的新書起這麽一個名字?

Judea Pearl:它總結了我在過去25年裡一直在做的關於因果關係的工作,它是我們如何應對那些內在原因問題的答案。奇怪的是,這些問題已經被科學拋棄了。所以我這麽做是為了彌補那些忽視的。

Hartnett:科學已經拋棄了因果關係,聽起來非常搞笑,這難道不是科學研究的全部內容嗎?

Pearl:當然,但是你儼然已經無法在那些方程式中看到它了。代數的語言是對稱的,如果x告訴了我們y,那麽y也會告訴我們x,我講的是確定性關係。例如,風暴即將來臨,氣壓計一定是下降的。

Hartnett:幾十年前,你在人工智能領域取得了成功。你不如說一說當時人工智能發展和研究的情況?

Pearl:20世紀80年代初我們遇到的問題屬於預測性或診斷性問題。醫生會從病人身上觀察一系列症狀,並希望得出病人患瘧疾或其他疾病的可能性。我們想要弄出一套自動化系統以代替專業人員——無論是醫生,礦產資源管理人員,還是其他一些付費專家。所以在這一點上,我想到了一個在概率上可行的方法。

不過,麻煩的一點在於,計算標準概率需要指數太空和指數時間,所以我只好想出了一個叫Bayesian網絡的方案。

Hartnett:然而,在你的新書中,你把自己描述為當今人工智能社區的一個“反叛者”,這又是什麽情況呢?

Pearl:這麽說吧,當我們開發出的工具使機器能夠以不確定性為基礎進行推理時,我就轉而去追尋另一項更具挑戰性的任務了——因果推理。我的許多同事仍然在研究不確定性推理。有一些研究小組繼續研究診斷性問題,而不擔心問題的因果關係。他們想要的只是預測和診斷準確。

我可以舉個例子——我們今天看到的所有機器學習的工作都是在診斷模型中進行的,比如把物體標記為“貓”或“老虎”。“他們不關心外部情況變化,他們只是想要識別出一個物體並預測它將如何隨著時間的推移而變化。

當我開發出了強大的預測工具後,我覺得這只是人類智慧的冰山一角。如果我們想讓機器有著更高級別的認識能力,我們就必須加入因果模型,關聯模型還不夠。

Hartnett:大家都對人工智能抱有興奮感,但你沒有。

Pearl:就像我研究深度學習所做的一樣,我發現它們都隻停留在關聯的層次上。可以說,所有令人印象深刻的深刻學習成就都只是因為曲線擬合,雖然這麽說有點褻瀆的意味。從數學層次的角度來看,無論你如何巧妙地操作數據,以及在操作的過程中讀到了什麽數據,哪怕再複雜,也仍然是只是曲線擬合的練習。

曲線擬合和因果關係

Hartnett:看樣子你對機器學習並不怎麽感冒。

Pearl:不,事實恰恰相反,我相當感冒,因為我們沒有預料到有那麽多問題可以通過純曲線擬合來解決。事實證明它們確實可以通過擬合來解決。但你要明白,我所談及的是未來——接下來會發生什麽?你需要看看有哪個機器人科學家正在計劃某項實驗,並為懸而未決的科學問題找到新的答案。這是下一步。我們還想跟一個有意義的機器——有意義的機器是說它能夠跟我們的直覺相匹配——進行一些交流。如果你剝奪了機器人對因果的直覺,你就永遠不會獲得什麽有意義的交流。這樣一來機器人也不可能像你或我一樣,說“我本該做得更好的”。因此,我們其實是失去了一個重要的溝通管道。

Hartnett:讓機器能夠跟我們一樣有著因果推論能力,這一研究成果未來的前景如何?

Pearl:我們必須給機器匹配一個環境模型,即讓它們將周圍環境納入考量範圍。如果一台機器無法去識別和依托現實,你就不能指望機器在實際應用中有任何智能的行為。所以人們必須可以將現實的模型進行編程並嵌入機器,這一步大約會在十年之內實現。

下一步將是機器自行假設這些模型,並根據經驗證據來驗證和完善它們。這一過程有點兒像科學認識進步的軌跡——我們從地心說開始,從行星軌道是遠行開始,到最後認識到日心說和行星軌道是橢圓的。

然後機器人們也會相互交流,並將這個假想的世界,這個狂野的世界“轉譯”為隱喻的模型。

Hartnett:對你你的這種設想,如今的人工智能從業者有什麽反饋嗎?

Pearl:人工智能界目前四分五裂著。首先,有一些人正陶醉在機器學習和深度學習以及神經網絡的成功之中,以為實現了天大的成就。他們不明白我在說什麽。他們還想繼續沿著曲線擬合的路子走下去。但是,當你和那些除了統計學習以外的人工智能領域從業者交談時,他們立刻就能明白問題之所在。在過去的兩個月裡,我看了好幾篇關於機器學習的局限性的文章。

Hartnett:你是說機器學習領域其實是有偏離如今進展的新的發展趨勢了嗎?

Pearl:不不不,不能說是什麽趨勢,應該說是一種反省吧,一種人真的自我反省,我們需要捫心自問——我們在往何處去?我們下一步該怎麽走?

Hartnett:沒錯,這正是我最不想問你的事。

自由意志和作惡能力

Pearl:你知道嗎,我倒是很高興你沒問我關於自由意志的的事兒。

Hartnett:在這種情況下,你認為自由意志是什麽?

Pearl:未來有自由意志的機器人一定會出現的,這一點毋庸置疑。我們必須了解如何對它們進行編程,以及從它們那裡獲得什麽。出於某種原因,在進化過程中,這種自由意志被發覺在計算科學層面上是可取的。

Hartnett:哦?這怎麽說?

Pearl:這麽說吧,你本人是有自由意志的,我們也是在進化中有了使這種感覺的。顯然,這種感覺提供了一些計算功能。

Hartnett:當機器人有自由意志的時候,我們能不能立即辨別出來?或者說,它們的自主意願會不會表現的非常明顯?

Pearl:如果說機器人們開始互相交流,並表示說“你本可以做得更好的”,那麽這就是自由意志的一個典型例證。如果一組運動機器人——比如說機器人足球隊——它們之間開始用這種語言進行交流的時候,我們就會知道他們已經有屬於自己的意志存在了,比如說什麽,“你當時應該把球傳給我的,我都等了你好久了,結果你並沒有這麽做!”“你本該”這種措辭表明了不管情況多麽緊急,你都能掌握住局面,但是實際上你卻沒有。所以第一個證據是交流用語,第二個證據是一場踢得蠻出色的足球賽。

Hartnett:那既然你都說到了自由意志的問題了,那我還是覺得得問問你關於人工智能有“作惡能力”的問題,我們通常認為這是取決於你做出選擇的能力。所以,什麽是邪惡?

Pearl:邪惡是一種信念,我們一般認為這個時候你的貪婪或者說不滿已經取代了社會的所有行為及道德規範。比如說一個人的思維裡可能會有一個小人在耳邊說,“你餓了,所以你可以做任何事,只要能填飽肚子就行”,但你的思維裡還會有其他的小人,它們在你的耳邊不斷地提醒你,引導你遵循社會的道德及行為規範,其中的一個小人名叫“同情”。所以,當你把你的貪婪或不滿提升到社會標準之上時,那就是邪惡了。

Hartnett:那麽,當人工智能有能力去作惡時,我們該怎麽知道呢?

Pearl:有一些軟體程式——這些程式是我們在過去學習的基礎上編制的、用來規範或者期望機器人的行為的——如果我們發現機器人一而再、再而三地忽略或者違反它們時,恐怕就可以判定它們擁有作惡的能力了。

編譯組出品,編輯:郝鵬程

獲得更多的PTT最新消息
按讚加入粉絲團