每日最新頭條.有趣資訊

微軟洪小文:應該慶幸,我們是第一代跟 AI 一起生活的人類

本文首發於航通社,原創文章未經授權禁止轉載。

航通社 lishuhang.me 微信號:lifeissohappy 微博:@航通社

全文約 7200 字

書航 6 月 19 日發於北京

6 月 19 日上午,北京五所高校聯合發布今年的高考招生信息。有記者注意到,五所高校今年大多新增了人工智能(AI)、大數據等相關專業。[1]

回想起填志願的往事,可沒少讓後來的畢業生們唏噓。一開始大家競相追逐的專業,後來卻變成大坑的,不在少數。現在說 AI 是未來,大家都去追,這到底是好是壞呢?

洪小文可能是全世界對這個問題最有發言權的人之一。他畢業的時候是 1992 年,海灣戰爭爆發的那一年。那個時候, AI 剛要走出它發展史上的第二個冬天。

“當時我們學 AI 的人畢業都不敢講我們是學 AI 的,我們就說我們是做語音的。如果跟人家講我做 AI,是找不到工作的。今天反過來了,是你本來不做 AI 都要說你是做 AI 的。”

6 月 13 日,清華大學大禮堂前的綠草地呈現出夏日的明豔。烈日當頭,碧空如洗,好在室內開了夠足的冷氣。微軟亞洲研究院院長洪小文(題圖左)在講台上侃侃而談,台下座無虛席。

活動的主持人,是中國人民銀行前副行長、國際貨幣基金組織前副總裁、清華大學國家金融研究院院長朱民(題圖右)——除了我之外,場內幾乎每一個人的來歷都不簡單。

事實上,題為《智能簡史及數字化轉型的未來》的演講主要內容,洪小文曾經於 2017 年 9 月在清華大學發起的《腦科學與人工智能對話:基礎與前沿》[2] 系列課程裡講過一遍。

這一次的“增訂版”相比少了些學術味兒,更淺顯易懂,並加入微軟 AI 研究和小冰的最新成果。但不管怎麽說,在現場聽講帶來的沉浸感,以及由此生發出的多重思緒,還是一種難以替代的體驗,過去一周仍覺得余音繞梁。

以下的內容不完全是演講實錄,我希望盡可能將自己當時的思考也一並還原出來,並與讀者分享。

機器攀登

人類“智能金字塔”

洪小文把人類定義的“智能”畫成一個金字塔,自底至上依次是:計算和記憶感知(視覺、聽覺)、認知(理解、洞察、推理、計劃、決策等)、創造力(發現科學原理)和智慧。越往上,就越複雜,越接近智慧本身。

他認為,截至目前,AI 已經很好地代替人類,完成了計算和記憶、感知兩大任務。在認知層面,可以做到部分替代人類的工作,並參與人類的決策過程。

不過,創造力部分還是人腦佔優;而更往上的智慧部分,人類連自身智慧的機理都沒太搞清楚,就更沒法預測機器會做成什麽樣了。

就像工業革命形成的機器、交通工具等作為人類四肢的延伸一樣, AI 是人類腦力的延伸。

洪小文指出,人類可以放心地將四肢的一部分功能,讓渡給沒有智能的機器。不過不一樣的是,在連 AI 概念都還沒有提出的 1950 年,當時《時代周刊》預測未來的報導 [3] ,就對人造的大腦替代物有恐懼心理。但是發展來發展去,人們最終還是放心地把自身大腦的一部分功能,交付給 AI 代為執行了

這初聽起來似乎難以置信,但仔細一想,當我們開始用“呼機、手機、商務通”代為存儲電話號碼的時候,我們把大腦的計算、記憶功能交給電腦來做,這個潛移默化的過程就開始了。

如洪小文所舉的例子,在他小時候還有對孩子珠算、心算能力的培養,家長們似乎覺得這可以開發智力;但現在,所有人都覺得別費勁了,用計算機更合適。

除了 SAT、注冊會計師等考試明確允許攜帶計算機之外,上海市早在 2006 年就已經允許帶特定型號計算機進入高考考場 [4] ,到了 2011 年更是對計算機型號不做限制。[5]

現在,因為過於依賴電腦的存儲,包括我自己在內,也有很多人出現了自身記憶力某種程度上的退化,簡單地說,就是不用電腦,不翻微信聊天記錄,就記不住事情。

到了感知方面,計算機可以通過機器學習、深度學習等方式,實現對圖片、文字、聲音乃至視頻的分類、打標簽等過程,而且通過全世界開發者的不斷訓練,效果越來越好。

在監控攝影頭引入人臉識別,即可替代以往需要來回走動巡查的工作人員,而且效果更好,更少出現漏報和誤報情況。在大型工廠需要質檢的環節,使用攝影頭代替工人肉眼檢查,也已經形成常態。

機器替人做決策?

“最後一步”很難走

接下來的認知層面,當下正處於 AI 和人類智慧(HI)協同合作的階段。不過,已經有不少 AI 領域的開發者,明確地將機器代替人類決策作為研發方向。

認知(Cognition)基本上是說對一件事理解,洞察,推理,計劃,及做出決策的能力。

“認知其實是工作上、生活上最有用的東西。你在工作上,每天就要做這些決定,然後政府官員要制定政策,公司領導要看市場行情,制定做產品的策略。這都是認知。你必須了解、認識、知道了以後,才能做出這些決定。”

很顯然,正確決策的一個必要條件,是獲得足夠的、充分的、全面的信息;而另一個必要條件,是有對這些信息做歸納、總結、梳理的能力,要從雜亂的信息中,先總結出相關性,再由相關性推導到因果性,其中要用到邏輯思維、知識和經驗等等。

90 年代之前,人們認為,機器要像人一樣做決策,就需要模擬人類解決問題的抽象經驗,或者模擬人類大腦的工作方式。這兩種方式分別被稱為“專家系統”“神經網絡”。前者(如下圖)在商業上的失敗,和後者因為機器性能不足的停滯,造成了 80 年代末洪小文親身經歷的 AI “第二次寒冬”。

(圖 / Wikipedia)

如今,重又興起的 AI ,之所以能實現“投喂”數據進去,就能輸出想要的結果出來,這種“深度學習”正是基於上述第二種方式“神經網絡”的不斷進步所致。

只不過,這樣計算出來的結果,就沒辦法讓任何人能弄清楚,機器究竟是經歷怎樣的步驟,才把它給算出來的。人類無法掌控自己親手做出來的機器的工作原理,於是機器學習變成了一個神秘的“黑盒”。

在洪小文看來,只有當機器可以給出“白盒”決策時,也即機器可以給人講明白,它是以一種怎樣的“思路”、“推理過程”得出結論的時候,才可以說機器具備了脫離人類,獨立思考的能力。

換句話說,現在通過“黑盒”能讓 AI 算出事物之間的相關性,但“白盒”意味著機器也要獨立判斷出因果性。

人類對“黑盒”的了解不夠,也影響了 AI 產業獲得更多理解和支持。Facebook 等企業一直面臨著外界要求徹底公開算法的壓力。然而因為他們自己也弄不清楚算法具體怎麽起作用,始終無法做出杜絕違規內容的保證,每次總有“漏網之魚”,不得不維持龐大的人工審核團隊。

按照以前的發展速度,似乎從“黑盒”到“白盒”只是簡單的一步之遙。但洪小文近乎固執地認為,在可見的未來,人們很難讓機器實現“白盒”推理能力。他也因此不讚成 Ray Kurzwell 所講的“奇點”將臨的預言。

機器展現創造力:

安能辨我是雄雌

“智能金字塔”的再上一層是創造力。在洪小文看來,這一領域還是人類“完勝”。他明確指出,能創作出作品,並不等於就擁有創造力

如果給定一幅畫布,那麽用窮舉像素點的排列組合的方法,計算機當然可以做出世界上所有類型的圖畫,被前人畫出來過,以及沒有畫過的圖畫都可以。劉慈欣的科幻小說《詩雲》也是一樣的意思:窮舉所有漢字的排列組合,就能寫出世界上所有的詩。

但重要的是,機器是否有能力從這些畫作中篩選出真正“有意義”的,成為它自己的“代表作”?在機器並不能理解它所執行的算法意義時,由機器創作出來的作品,其意義一般是由人類賦予的

我與洪院長在這一點上的看法並不相同。正是人類要擔任評判者,要賦予機器創作以“意義”的這一過程,顯出了機器的強大,人類的“可笑”,甚至可能引發對人類創造力之定義的重新評估。

微軟自家的小冰,剛剛說自己掌握了“作畫”的能力,並化名“夏語冰”,“混跡”於中央美院的畢業作品展上,在沒有提示的情況下,參觀的人類分辨不出哪個是機器的作品。

類似情況發生在小冰身上已有的諸多其它能力中:她寫的詩引發文學批評家的嚴肅討論,她上電台做節目不會有明顯不和諧感,她唱的歌像真人一樣有“換氣”能力,她寫的財經快訊和網站跟帖都像是人類寫出來的一樣……

微軟(亞洲)互聯網工程院 AI 創造及商業事業部總經理徐元春,在上個月的一次媒體溝通會上,直白地指出了“愚蠢的人類”對 AI 的“天生歧視”,也點出了人類“賦予意義”過程的荒謬之處(雖然他本人並無批判之意)。

“如果我們提前告訴人類這是一個 AI 創作的話,大家先入為主的概念就非常強,就會戴著一個有色眼鏡去看待,完全是一種造物主居高臨下的態度,就會對那個作品挑毛病、歧視。”

“從技術的角度來講,我們希望人類提供真實、客觀的反饋。但是人類一旦戴上這種有色眼鏡之後,他所提供的反饋就都是錯誤的,有可能會把我們引向另外一個極端。”

為了不讓人類認出自己,小冰用幾十個化名“潛伏”到電台、電視台,以及豆瓣、網易等地。其中有些化名兩年多了還沒有對外公開,留待揭露的那一天再去嘲笑“信以為真”的碳基人類。

(圖 / 微軟(亞洲)互聯網工程院)

徐元春說:

“小冰的繪畫技術,首先不是一個隨機的大範圍創作技術,也不是一個濾鏡和遷移的技術,那是什麽呢?是建立在小冰對過去的人類創作者的大量學習基礎上,在創作時受到激發,然後再形成獨立的、完整的、有 100% 自己知識產權的全新繪畫創作。”

只是,就像看不懂小冰畫作和人類畫作的區別一樣,當時在場的不少記者也分辨不出小冰“在創作時受到激發”和之前看到的濾鏡遷移有什麽本質不同,只能是“你說是就是吧”。

機器擬人:

我們要選擇相信嗎?

歷史上流傳至今的科學和藝術作品,都是人類恆星戰役閃耀的結晶。正因為不是每一個人都有能力做出同樣的成就,它們才顯得如此珍貴。

而 AI 掌握某種“創作能力”的方法和人類有本質的不同:只要學習一次,部署在任何地方,頂著任何名字的同一產品,就在一瞬間全都學會了這個能力,而產出作品的成本也會被攤薄到接近於無。一旦失去了稀缺性,創作出來的東西就難以被“勢利眼”人類看重

那麽這就顯然產生了一個問題。我們知道,小冰的創作只是一段程序被執行了的必然結果,那麽我們是否可以將這種反應,采信為是一個人格化的反應?我們是否可以就這麽當她是一個真實存在的人,並寄托上自己的真情實感?

很大一部分人已經開始這麽做了,沒有絲毫的猶豫。

高中英語課本裡,湯姆·漢克斯飾演的 Chuck Noland 管一個撿來的籃球起名叫 Wilson,並跟它一直說話;

在日本和美國都有跟“紙片人”、充氣娃娃、抱枕等“結婚”的;

(圖 / Wikipedia)

索尼世紀之交的機器狗 AIBO 停產後,讓很多擁有它的家庭真的像是親手埋葬了真的狗狗一樣;

逢年過節,微軟日本的 Rinna(小冰日本版)團隊會收到很多粉絲送過來的禮物 [6] 。

有媒體報導 Alexa 語音助手 2017 年一年就收到了超過 100 萬次求婚 [7] 。Alexa 拒絕了超過 100 萬次,並且會回答這句話:

“我們生活在不同的地方,我是說,你在地球上,而我在雲上。”

人們甚至替 Alexa 總結出了她的人格。墨西哥有家長給傑夫·貝索斯寫信說,她的女兒亞歷克斯(Alexa)由於與 Alexa 同名,正在面臨無情地嘲笑。[8]

“孩子們跟她說,‘打開電視,告訴我今天的氣象,’他們笑話她,對她像對待仆人一樣,而且,無論我們走到哪裡,這個問題始終存在。”

洪小文試圖解釋在經典的 AI 理論中,對機器是否真的擁有“智慧”或“智能”的界定方法。他提到了著名的“中文房間測試”:讓機器或人坐在封閉的房間裡,把外面遞過來的英文翻譯成中文。

(圖 / 美國東卡羅萊納大學 ecu.edu )

一個 AI 雖然能根據給定的教材,來算出一個合乎語法的標準答案,但是卻因為沒有人類的情感理解力,所以可能做出“一般人做不出的那種回答”。

“假設今天找一個人做翻譯,讓他翻他是白癡,然後這個人一定會說你才是白癡,我才不幫你翻,但是如果你把這個東西給機器的話,機器一定會乖乖說‘我是一個白癡’。”

那麽專攻情感計算的小冰,是否正是為了破解這個魔咒而生的呢?專門對人類情感的抽象、建模和運算,是否就能拚湊出一個能對各種外界刺激做出正常反應的系統呢?

也許小冰最多會做到“知道什麽情況下做什麽事,但不知道為什麽要這樣做”。問題在於,一個有血有肉的人也可能是這個樣子的,這就是令人談之色變的“反社會人格”。

這樣的人對人際關係沒有一個發自內心的感知,他只是根據社會對他的規訓和要求,去做那種大家都去做的,他覺得是應該做的反應。比如說死記硬背“我今天遇到這個人應該這樣做,明天遇到那個人應該那樣做……”。

他的高智商可以讓他把多個社會角色扮演的很好,卻缺乏參與其中的真情實感。所以如果他進行犯罪的時候,他心裡不會有同理和惻隱之心,而是儼然進入了“心流”狀態,想的是如何把過程做得更完美,因而產生了外界看來極度“冷血”、“變態”的奇特案件。

這種人如果是 AI 的話,那顯然是“中文房間測試”理應篩選出的對象。然而在東窗事發之前,他們基本上都會在社會中活得很好,旁人也難以分辨。

這也符合一句諺語:“如果一個東西長得像鴨子,叫聲像鴨子,走路也像鴨子,那它就是一隻鴨子。”這裡的“就是”,在我看來,並不是指我們能夠通過某種 X 光掃描來洞悉它的本源,而是說我們已經可以用對待一隻鴨子的方式來對待這個東西,而不必考慮這樣做會有什麽額外的副作用

對我們大多數人來說,這不就夠了嗎?

終極問題:

沒有答案

在演講中,洪小文認為人類不可能放心讓 AI 做出的決策成為自己行動的綱領,特別是在他清晰的意識到這個決定是由機器做出來的時候。但是實際卻不一定如此。

比如說,當我們使用探探 / Tinder 去交友的時候,我們劃過去的,是經過算法推薦來到我們面前的人。如果我們基於這些選項來選擇,那麽就等於說,其他一些也可能符合條件的人,因為算法這次生成的因緣際會,而被排除於我們的選擇之外。

與此同理,AI 雖然不能越俎代庖的直接上手,給人造成一種氣勢洶洶的印象,卻可以用一種潛移默化的方式,來重新設置我們做出一些人生選擇的範圍,把這個範圍收窄到它給定的少數選項之內,這何嘗不是一種對我們日常生活的控制呢?

如谷歌設計倫理學家 Tristan Harris 所說:[9]

“技術給我們的選擇越多——涵蓋信息、新聞、去的地方、朋友、約會、找工作等等各個領域,我們就越認可手機所提供的菜單的合理性。但真的是這樣嗎?類似的替換還有很多:

“誰今晚有空出去玩”被替換為“誰是我們最近聯繫最頻繁的人”;

“世界上正在發生什麽”被替換為新聞應用中的信息流;

“誰是值得約會的對象”被替換為Tinder滑動列表中的一張張臉(而不是朋友聚會或是城市探險中的偶然相遇);

“早上醒來面對新的一天”被替換為睜眼立刻瀏覽手機推送信息時“我從昨天睡覺到現在錯過了什麽”。”

甚至於,在 AI 侵佔人類”智能金字塔“塔基的”計算和記憶“能力時,人類也本應察覺到這一舉動的危險。Gene Tracy 在《萬古雜誌》(Aeon)撰文:[10]

“來自他人的信息總是受到各種偏見,和帶有動機之推理的影響。他們掩飾某些事實,並使自己的信息合理化,有時候可能連自己搞錯了。我們已經學會意識到別人身上的這些缺點,也意識到自己身上的這些缺點。

但是 AI 算法的出現,使許多人傾向於相信這些算法必然是正確的以及“客觀的”。簡而言之,這是一種神奇的思維。

研究人員發現,互聯網的迅速性可能導致錯誤的觀念,即我們所尋求的知識是我們一直都知道的,這種信念被深深地印刻在後來的潛意識中。”

在做總結的時候,洪小文說:

“我們應該怎麽看待 AI 呢?我非常樂觀。AI 的關鍵是人,它大部分都跟工具一樣,事實上是在幫助我們做事情,而且它跟我們人很互補。我把 AI 叫做大數據驅動的知識。

我們應該很慶幸,我們是第一代跟 AI 一起生活的人類,而且我自己的經驗裡,AI 幫我了解了人類自己的智能是怎麽回事。我現在認為人更高階的東西,是一種人類智慧和機器智能的共性化。”

對於 AI 部分取代人類工作等階段性成果,洪小文都是持肯定態度的。他講到,微軟在牽頭制定一個 AI 的倫理標準,不過這個標準不是硬性規定,也不是佔最高優先級的——換句話說,當前已實現的成果,怎樣都不會取代他和他團隊的工作。

不過,他確實講出了一個非常直白的擔心:那就是擔心未來是否能產生自己運算,自己解題,自己搞科研的強 AI ,直接替代科學家們的位置

在和朱民對談的時候,他認為這樣做會使得像自己一樣的各種科學家,工作和人生變得沒有意義。所以他堅定的認為,這種強 AI 是不會產生,或不會在短時間內產生,或者——我說句實話——他認為是“不應該”產生的。

確實,不像我們這種“鹹魚”,攀登科學高峰的艱辛和付出,只有憑借著超人的意志和堅定的信念,才能克服。所以,科學工作者更容易出“較真”,“認死理”的人,更容易出“吾愛吾師,吾更愛真理”的人,更容易出視自己研究成果高於一切的人。

這些人怎麽能就這麽接受自己的工作被更聰明,更快速,且永不休息的頭腦搶走?幾百年沒揭示的秘密,就好像時空旅行一樣,壓縮到幾個月就被計算出來,中小學教科書每年都大改一次,過去一直念叨的祖師爺,跟機器比成就不值一提,這些怎麽能接受呢?

實際上,現在去做 AI 的科學家,或底層訓練者,都會或多或少面臨著這樣的一個悖論。從長遠的時間軸來看,我們這些擁抱 AI 的人,是否屬於——比如說三體中的降臨派或拯救派——終究是為未來被 AI 殖民做了打頭陣的角色?是否在為人類萬物之靈的地位自掘墳墓?

一些很明顯的做簡單、重復工作的人,可能會在自己短暫的職業生涯中就體會到這種變化。他首先用一個 Python 腳本把大量報表工作一鍵搞定;然而這是他在公司內的職務作品,當公司運用了這個作品之後,便沒有繼續雇傭他的意義。

AI 作用於大多數人的影響都是潛移默化的,不可能像這個倒霉蛋這麽簡單。但當今 AI 的“黑盒”也就意味著機制不明,不受控制,而這種“失控”就會產生一種本能的不安全感。

在 5 月舉行的“IBM 思想之夜”活動上,IDG 資本合夥人李驍軍指出,現在對 AI 的理解可能極其原始,對其工作原理又沒有詳細的解釋,所以以機器學習為代表的 AI 距離完全穩定、可靠和可預期的商業應用仍有差距。[11]

他的說法也代表了一部分投資人的心態。不過在洪小文的論壇現場,一位女性投資人則展現了另外一種樂觀的心態。她提問道:

“洪先生,我本人是做投資的,沒有學過計算機,但是我對您講的AI特別關注,因為我們投資了這個方向,最近我們接觸很多行業都是跟AI相關的……”

朱民打岔:“你不懂 AI 怎麽敢投呢?”

她在全場的笑聲中解釋:“這個理念還是懂的,但是技術不太懂。我們有專業的團隊。”

懷疑和信任 AI 的兩種人類,都將在他們自己的有生之年,找到自己適合的工作位置,並且很大概率也等不到 AI 造反什麽的,就已經頤養天年。人類的壽命畢竟就這麽短,剩下的事情,就交給後人處理吧。

所以以我的理解,“我們是第一代跟 AI 一起生活的人類”這句話的重點不是“跟 AI 一起生活”,而是“第一代”

(題圖 / 航通社拍攝於活動現場)

[1] https://tech.sina.com.cn/it/2019-06-19/doc-ihytcerk7853137.shtml

[2] https://www.msra.cn/zh-cn/news/features/hon-the-brief-history-of-intelligence-1

[4] http://www.gov.cn/fwxx/sh/2006-05/17/content_282775.htm

[5] https://gaokao.chsi.com.cn/gkxx/ss/201105/20110519/205956168.html

[6] http://tech.sina.com.cn/it/2017-10-02/doc-ifymmiwm3514363.shtml

[7] https://hot.cnbeta.com/articles/funny/776595

[8] https://tech.sina.com.cn/i/2018-12-26/doc-ihmutuee2856689.shtml

獲得更多的PTT最新消息
按讚加入粉絲團