每日最新頭條.有趣資訊

2019年最精彩AI論戰:李飛飛論戰《未來簡史》作者赫拉利

劃重點:

《人類簡史》、《未來簡史》這兩本書,不少人都聽說過吧?

矽谷時間 4月22日晚,在史丹佛可容納約2000人的超級大演講廳,以這兩本暢銷書享譽全球的以色列著名歷史學家尤瓦爾-赫拉利(Yuval Noah Harari),與史丹佛一個多月前神秘成立的 “以人為本” AI研究院領導者李飛飛,展開了一場以人工智能為主題的對話。

對話現場有多火爆呢?

矽谷洞察的特約記者在開場前 90 分鐘來到現場,發現演講廳外面已排起了千米長隊,還是兩列隊伍:一列提前訂票的 “坐票”,一列臨時來聽的“站票”。要知道,矽谷每天大小演講無數,一場演講能吸引 200 人來就算很不錯了,如此火爆的演講幾乎史無前例... 這氣勢,根本就是演講屆的《複聯4》!

與赫拉利對 AI 的警惕與擔憂不同,李飛飛對 AI 的發展可謂樂觀不少。在這場討論上,兩位大咖針鋒相對、各抒己見,都聊了些啥?矽谷洞察(原 “矽谷密探”)這就帶你去一探究竟!

(以下對話整理自現場,略有刪減)

如果 AI +生物科技入侵你的大腦,你還是你嗎?

赫拉利用他在 2018 年出版的新書《21世紀的21堂課(21 lessons for the 21st century)》中提出的一個觀點開場。

赫拉利:AI帶來的不僅是一場科技挑戰,還是一個哲學挑戰。當 AI 和生物科技結合起來後,它就會具備 ‘黑掉’ (hack)人類大腦的能力。這也就意味著,我們現在所謂的 “自由意志”、“獨立思考”、“民主決策” 等,都將在機器的算法前分崩離析。幾千年來,哲學家們討論的諸多生存問題,會在工程師們調教出來的算法面前徹底變形。

具體點說,現在的人工智能建立在大量數據之上,一個 AI 算法已經能夠比我們單個人腦做出更好的決策,比我們自己還了解自己。它準確知道我們喜歡什麽、想買什麽。它不僅能算出我們申請哪份工作更合適、怎樣的投資理財最適合我們,甚至還能算出來跟誰約會更可能修成正果!

當算法可以做出比我更好的決定之際,再跟生物學研究結合起來,它當然就可以黑入我的大腦,在我不知不覺之際,悄無聲息地背叛我,尤其是目前我們在數據隱私、安全和倫理上還存在這麽多問題,這不是非常危險嗎?

李飛飛:首先,人工智能的誕生就是從機器的算法與生物學,確切的說是腦神經學的對話和融合開始的。尤其是機器學習,它就是從模擬大腦的神經網絡的。

其次,人工智能和生物醫療的融合目前在應用層面上已經產生了非常積極的作用,尤其是在醫藥和診斷等改善人們的醫療健康領域,兩者深入融合將更多的造福人類。

此外,AI目前的發展帶來的倫理、隱私和工作等多個社會問題已經被納入了科學研究的視野和範圍。史丹佛“以人為本”AI研究院應對這些挑戰的一個解決方案是,重構我們下一代人工智能教育,尤其是我們將社會學家、心理學家、哲學家和AI科學家等多個領域的科學家們放到一起來研究,就是為了能更好的處理這些問題

AI 眼裡的愛情,和一場流感又有什麽區別?

“愛” 這個永恆的話題,從石器時代被人類一直討論到今天,AI 時代也不例外。你害怕 AI 會黑入你的大腦,控制和操縱你的一切意志,那麽,愛難道也可以被 “黑” 嗎?

這就要從 “愛” 的定義談起。

赫拉利:那要看你怎麽定義 “愛” 。你覺得 AI 會愛嗎?擁有意識嗎?難道說,非人類的組織器官就無法識別和表達愛嗎?

對 AI 來說,黑入愛、黑入意識的門檻可能是非常低的。如果你說的是愛情,從生物學的角度看,愛情的產生也不過是一連串的身體內的生物化學反應,荷爾蒙會變化,情緒和心跳會變化,使用的語言和動作會變化。如果機器的算法解碼了愛情的這條生物化學反應鏈條,那麽所謂的 “愛情”跟一場流感有什麽區別嗎?

李飛飛:你這個結論裡面有兩個假設,第一,你假設我們現在的人工智能是如此之強大,強大到不可思議。它不僅能預測和判斷我們的金融消費行為,還能預測到人類的愛和意識這個層次。這種 AI 離我們這個時代還很遠、很遠…… 我不知道我們還需要多少代人才能實現。

第二,你假設只有 AI 這種技術在未來一家獨大,強大到凌駕於一切。事實上,過去,現在和未來,都有很多種其他科技和AI同時發展,有的技術甚至比AI還要強大。

所有的技術都有這樣的雙刃劍,落入壞人之手,就將危險人類社會和文明,這種例子在其他科技領域過去發生過,以後也可能會發生,AI 也不例外,它可能誤入壞人之手的負面影響不該被單獨誇大。最重要的是,在應對 AI 的發展和可能的負面影響時,我們要把其他科技領域的玩家都一起帶進來看,一起來面對和解決,因為它們也會在塑造我們的未來裡扮演重要角色。

AI 會把你 “賣” 給廣告公司嗎?

赫拉利:另一個很重要的問題是,現在的 AI 並不透明,我們常常在不經意間就給了 AI 大量關於我們自己的數據,而且我們也不知道它到底在對我們做什麽。如果 AI 比我自己更了解自己,但它不跟我分享信息,而是跟廣告商、大公司、政府組織聯合來利用我,怎麽辦?

比如我現在去銀行貸款,銀行會通過一個非常複雜的、涉及幾千個數據處理的軟體系統,來決定能不能借給我錢、借給我多少錢。但是,這個過程根本沒辦法解釋,它就是一堆代碼和數據,它直接給我一個結論,請問現在有多少人是沒辦法弄懂銀行這套系統,就直接按照它的結論來操作的?

李飛飛:這正是為什麽我們史丹佛 “以人為本” AI 研究院設定了幾個核心的研究原則。其中一個很重要的原則,就是我們會更注重能夠更好解釋或反應人類智能的 AI 技術的發展,比如 “可解釋AI (explainable AI)” 以及 對數據庫的依賴更少的機器學習方法,比如直接從人類的經驗、創造性和學習方式得到啟發,更接近人類的人工智能技術。

“可解釋 AI” 的軟體在生物醫學和法律、金融等多個領域應用的潛能如此之大。你提到的數據不透明,決策不透明的過程將是有望被AI來解釋清楚的。反過來說,如果AI可以更好的解釋和呈現一個決策過程,那很多我們以往沒辦法量化的事情以後就無法來弄虛作假了。

另一個原則,是我們會和跨學科的科學家們以及政策制定者,企業家們一起工作,更好定義和應對 AI 會引發的隱私、倫理乃至政治和經濟問題。目前,我們已經有超過 200 多位史丹佛的學者參與其中了。

而且,AI 本身也可以用於正面的解決一些以往沒法解決的社會挑戰和問題。比如,機器學習可以通過算法來“反偏見”,它可以分析電影中男性的數量和呈現時間,與女性做對比,來證明到底有沒有性別偏見。這種級別的分析是人類無法做到的。

赫拉利:我覺得一個解決方法是,我們每個人要更好的更多的了解自己,不要讓 AI 比我們更了解自己。只要 AI 不如我們自己了解自己,AI 替我們做主的威脅就會小很多... 不過話說回來,我們很多人真的一點也不了解自己。

AI 全球競賽,或比核競賽更可怕

赫拉利:另一個讓我擔心的是,AI 發展是一個少數國家,尤其是中、美兩國佔主導優勢的技術領域。很多其他非洲國家、亞洲國家,乃至歐洲國家在這個領域已經遠遠落後於亞馬遜或者騰訊。

而且更可怕的是,在 AI 的發展中,競爭的感覺越來越濃,而不是合作。如果 AI 演變成一場全球科技競爭,那是對全人類的一個壞消息。

從經濟上講,這種 AI 發展不平衡、一兩家獨大的局勢,將很可能以數據殖民的方式重現19世界的全球殖民地統治。

比如,19世紀時的印度是英國的殖民地,它的經濟是圍繞殖民地的需求來設計的,只不過它當時供應給英國的是茶園和鴉片,現在它可能供應給加州的是它的大量數據和基礎的數據處理服務,然後這些東西流到加州後,進入那些創業公司,變現為走向全世界的一個算法或服務。

從政治上講,那些AI發展落後的國家會在這種競爭裡變得更緊張,因為,即便我已經出局了,我也不希望任何一家做大啊!如果有一天美國的人工智能世界第一,只要它是只服務於美國的利益的,我怎麽能夠信任它提供的服務呢?而且,一旦有天加州的AI技術和算法能取代那些現在靠便宜產品生存的國家,那些國家的經濟甚至會引發崩潰。

所以我說,AI 的全球競賽,將比核競賽更可怕。因為,雖然核武器大家都在競賽,但至少只是研發出來作為底氣壯膽,沒有人會隨便去用的。但是 AI 就不一樣了,它是發展出來就馬上會被用,不管三七二十一。

李飛飛:如今的科學在全球範圍內的合作和交流非常頻繁,超出你想象,AI 領域更是一個跨國界的合作研究和應用社區,僅在史丹佛,每年的全球合作產生的科學論文數量就多不勝舉,還有GitHub 這種全球的開源服務社區。

所以,你所說的這種情況,在全球交流和合作如此頻繁的當下,不太會發生。確實很多AI現在資源是在少數大公司裡,但不是全部,其實學術界和很多獨立研究機構在 AI 發展裡都有自己的獨立角色。

而且,那些目前在這個領域落後的國家,還是有很多機會和時間去思考、制定自己的數據戰略和AI 發展戰略的。

結語

今天的 AI 科學家們要處理的實在太多了,除了技術領域研究,還要回答道德、倫理、隱私、經濟、政治,乃至愛情等方方面面的問題。就像李飛飛在對話中開的一個玩笑,“科學家們真的很忙,我羨慕哲學家們,他們可以隻提出問題來,用幾千年來反覆討論卻沒有個答案,而我們科學家們卻要馬上回答。”

這讓記者想到幾天前採訪一個生物科學家時,他提到的觀點:“我們科學家受的解決研究問題的學術訓練,你提到的基因編輯引發的這些倫理和社會問題,我怎麽知道答案呢,你應該去問那些領域的專家,或者乾脆去問你們每個人自己:這真的是我想要的嗎?”

你對 AI 持什麽態度?樂觀、悲觀、兩者兼有?你認為 AI 會比你的家人、密友、甚至伴侶更了解你嗎?如果未來某天 AI 想一手包辦你的工作、理財、買房買車、相親擇偶等人生大事,你敢相信它嗎?

獲得更多的PTT最新消息
按讚加入粉絲團