每日最新頭條.有趣資訊

如何讓機器人對人類友好?

2017年,一名男子在與機器人下棋。

瑞典哲學家博斯特羅姆指出,人類眼中的一些瘋狂行為,對人工智能而言卻是合理的。

2013年,倫敦未來學家賈安·塔林在一次人工智能會議上。

隨著人工智能的高速發展,一些技術專家憂心忡忡,他們稱超級智能機器容易給人類帶來傷害,這不僅僅發生在科幻小說裡。那麽,人們如何才能確保人工智能對其製造者友好呢?

當塔林遇上尤德考斯基

2007年,賈安·塔林在網上看到了一篇名為《盯著奇點》的在線文章,該文章預言,隨著超級智能的出現,人類將不複存在,超級智能在廣泛領域超越了人類的智力。

塔林出生於愛沙尼亞,是一名計算機程序員,有物理學背景。2003年,他與夥伴共創了skype,為該應用程序做後台開發。兩年後,易趣收購了他的skype股票。

塔林很快發現,《盯著奇點》作者埃利澤·尤德考斯基(Eliezer Yudkowsky)是一位自學成才的理論家,他寫了1000多篇文章和部落格,其中許多都是關於超級智能的。

塔林於是把尤德考斯基的作品從互聯網上搜集下載,按時間順序排列。然後,他花了一年的大部分時間來閱讀它們。

讀了尤德考斯基的文章,塔林相信,超級智能可能會導致人工智能的大爆發,從而威脅人類的生存———超級人工智能將取代人們在進化階梯上的地位,並以人類現在控制類人猿的方式支配人類。或者更糟———消滅人類。

讀完最後一篇文章之後,塔林向尤德考斯基發送了一封電子郵件:“我是賈安,Skype的創始工程師之一……我同意,為人工智能超越人類智慧提前做準備,是人類的當務之急。”他想幫忙。

一周後,塔林飛往美國加利福尼亞州舊金山灣參加會議,在加州密爾布瑞市的一家咖啡館裡,他遇到了住在附近的尤德考斯基。他們的聚會持續了四個小時。尤德考斯基事後如此評價塔林:“實際上,他真的理解了人工智能的基本概念和細節……這是非常罕見的。”

捐資助力人工智能研究

後來,塔林給奇點人工智能研究所開了一張5000美元的支票,奇點人工智能研究所是一個非營利組織,尤德考斯基是該研究所的研究員。2013年,該組織更名為機器智能研究所(簡稱M iri)。在那以後,塔林共捐給該研究所60多萬美元。

與尤德考斯基的會面,使塔林有了明確的目標,也促使他去完成一項使命:把人類從自己的創造物中拯救出來。

他開始了旅行生活,在世界各地發表了關於超級智能構成威脅的演講。不過,他在更多的時候,是開始資助一些研究,這些研究旨在給人類尋找一條出路:即“友好的人工智能”。

這並不意味著創造一款擅長談論氣象的機器人,也不意味著機器人能記住你孩子的名字,儘管超級聰明的人工智能也許能做到這兩件事。但也不意味著機器人的動機是利他主義或者有大愛的。

一個常見的謬誤是假設人工智能有人類的欲望和價值觀。而“友好”意味著更基本的東西:將來的機器人不會在他們追求實現目標的過程中消滅我們。

多關注人工智能的未來

去年春天,塔林抵達英國劍橋參加人工智能會議,希望學術界更加重視人工智能的安全。

這一天,記者和塔林一起在劍橋大學耶穌學院的餐廳吃飯。塔林坐在一張厚重的桃花心木桌旁,穿著矽谷風格的休閑服裝:黑色牛仔褲、T恤和帆布運動鞋。

在耶穌學院餐廳,塔林的用餐夥伴是一群會議人士,其中包括一位學習機器人的婦女和一位20世紀60年代畢業於劍橋的英國男士。男士試圖把談話轉向人工智能的新聞,塔林茫然地看著他說:“我對短期風險不感興趣。”

在某種程度上,47歲的塔林像教科書上的一位科技企業家。他認為,由於科學進步(如果人工智能不毀滅我們),他將活到“很多很多年”,他的壽命甚至可能會超過年輕的研究生。

但塔林對超級智能的擔憂在他的團隊中已盡人皆知。而且,擔憂者不僅僅是他———貝寶(Paypal)聯合創始人彼得·蒂爾(Peter T hiel)的基金會已向機器智能研究所(M iri)捐贈160萬美元,2015年,特斯拉創始人埃隆·馬斯克也向馬薩諸塞州劍橋技術安全機構的未來生命研究所捐資1000萬美元。

不可忽視人工智能的另一面

塔林進入人工智能研究世界,始於20世紀80年代。當時他有一位同學,其父親在政府工作,這位父親讓幾個聰明的孩子接觸到了大型電腦。

愛沙尼亞獨立後,塔林創立了一家電子遊戲公司。時至今日,塔林和妻子、六個孩子中最小的一個仍然住在首都塔林。

2012年,他與志同道合者共同創立了劍橋生存風險研究中心(CSER),最初的支出接近20萬美元。

目前,塔林致力於捐資研究人工智能,該研究項目正有條不紊地進行著。他把捐款分別撥給11個研究機構,每個研究機構都在研究不同的安全對策,以應對人工智能。他希望能堅持做下去。

塔林將人工智能對人類的威脅稱之為生存風險或X風險。研究生存風險 的 ,有劍橋生存風險研究中心(CSER)的研究人員,除了鑽研人工智能引發的生存風險,CSER的20多名研究人員還研究了氣候變化、核戰爭和生物武器。

塔林認為,氣候變化、核戰爭和生物武器等風險比較容易被人們認識,而人工智能帶來的風險卻未能引發人們足夠的重視。他希望人們多多了解超級智能機器接管世界的恐怖,希望說服人們更多地關注人工智能的威脅。

規避人工智能的風險

塔林指出,每一個人工智能都是由目標驅動的,先進的人工智能不一定需要被賦予控制世界的目標,才去控制世界———有可能是偶然因素引發的,計算機編程的歷史上充斥著種種容易引發災難的小錯誤。例如,2010年,當共同基金公司Waddell& R eed的一名交易員拋售數千份期貨合約時,該公司的軟體在執行交易算法時遺漏了一個關鍵變量。結果導致一兆美元的

“閃電崩盤”。

塔林基金的研究人員認為,如果超級人工智能的激勵機制未得到恰當的編程,即使是善意的目標也可能導致惡意的結局。正如牛津大學的瑞典哲學家尼克·博斯特羅姆(Nick Bostrom )在他的著作《超智能》所舉的著名例子一樣。

在《超智能》中,博斯特羅姆教授舉例說,如果我們為人工智能設定一種程序,讓它製造回形針。一旦它們的智能達到了與人類相當的水準,它們就會把所有注意力都放在製造回形針上,最終可能會把所有已知物質都用來製造回形針,包括人。

博斯特羅姆教授表示,上述情況對我們來說完全瘋狂的行為,在人工智能眼中是極其合理的,因為它們的唯一目標就是製造回形針。

千方百計尋找安全對策

塔林基金正在尋求各種各樣的辦法避免危險出現。他希望能夠效仿20世紀40年代反核武器運動。當年,原子彈在廣島和長崎爆炸之後,科學家們聯合起來呼籲限制進一步的核試驗。

牛津大學研究員斯圖爾特·阿姆斯特朗是世界上少數專注於人工智能安全的研究人員之一。當記者在牛津大學見到他時,他正在喝咖啡,穿著一件解開紐扣的橄欖球衫。他的一生幾乎都在螢幕前度過,蒼白的臉被一堆亂糟糟的頭髮包圍著。記者問他,在人工智能安全方面取得成功是什麽樣子?他說:“你看過樂高電影嗎?一切都很棒。”

阿姆斯特朗說:“人們推薦了很多可能解決整個A I控制問題的技巧,但是這些方法要麽太過簡單,好比試圖給複雜的人類喜惡確定一個簡單膚淺的定義,要麽過於生硬,把複雜的人類價值觀壓縮成一個簡單的字詞或想法。”

“我並不是說這些簡單的技巧沒有用。的確有很多技巧給我們的研究指明了道路,對解決這個終極難題有幫助。但是這些只是想法,具體的操作還需要我們做更多的開發研究工作。”阿姆斯特朗說。

本版供稿:瀅

圖片來源:Guardian、verdict等。

獲得更多的PTT最新消息
按讚加入粉絲團