每日最新頭條.有趣資訊

矽谷封面|開發比人類更聰明的AGI會導致世界毀滅嗎?

劃重點:

(本文約7500字,閱讀全文大約需要10分鐘)

【編者按】如果你正瀏覽互聯網上關於人工智能(AI)的新聞,你會發現這些AI已經可以做到許多人類才能做的事情,而且要好得多。如今的AI可以比人類醫生更好地檢測癌症,構建比人類開發者更好的AI算法,並在國際象棋和圍棋等遊戲中擊敗人類世界冠軍。像這樣的例子可能會我們相信,也許沒有什麽是AI不能比人類做得更好的事情。AI在不同領域的進步和不斷提高的能力,讓全球科技界人士以及普通公眾喜憂參半。

雖然許多人認為,人工通用智能(AGI)的崛起可以通過提高我們的生活水準和文明地位極大地造福人類,但它們也可能會導致人類毀滅。儘管關於AGI或超級人工智能的發展是有益還是有害的爭論仍在繼續,但關於這些先進形式的AI何時會出現的問題,也還沒有定論,這些都是值得辯論的重要問題。然而,在這些擔憂成真之前,我們有必要首先知道何為AGI?如何才能將其引入現實?如何確保AGI的力量將造福於世界?AGI會成為人類生存的威脅,還是生存的希望?

以下為文章正文:

首先,我們需要知道究竟什麽是AGI?簡單地說,AGI就是能夠執行人類才能完成的任何任務的機器能力,且比人類完成得更好。AGI擁有先進的計算能力和人類水準的智能,這種系統能夠主動學習、解決問題、適應和自我改進,它們甚至能夠執行超出它們設計目標的任務。更重要的是,AGI的進化速度是以指數級進行的,因此它們會比人類創造者的進步快得多。AGI的引入可以迅速帶來超級人工智能(ASI)。

模仿整個人類大腦架構創建

AGI採用了所謂的全腦架構方式創建,這是一種基於工程學的研究方法,通過了解人類整個大腦的架構來創建AI。基本上,這種構建AGI的方法是人工神經網絡和機器學習模塊的集成,同時使用大腦的布局結構作為參考。用這種方式構建具有和人類相似行為和價值觀的AI將會更容易。即使在不久的將來,超級智能超過人類智能,與設計成像人一樣思考的AI通信將相對容易,這將非常有用,因為機器和人類需要繼續互動。

AGI是通過學習產生的許多組合式、相互關聯的特徵的功能,因此我們不能手動將這些特徵分解為單獨的部分。雖然基於大腦架構,但AGI被設計成多功能部件的集合體,這些部件仍然可以分解和使用。大腦的功能部分在某種程度上已經存在於人工神經網絡中。因此,我們可以基於這些技術構建AGI。

在人類身上,大腦皮層包含約140億個神經元,但其中約半數可以通過深度學習部分解釋。從這裡開始,我們需要更接近於模擬大腦不同結構的功能,即使沒有整個大腦的架構,我們也需要能夠將幾個結構組裝起來,以再現某些行為功能。最終,我們將找到擴展這一發展過程的路徑,覆蓋大腦的其他功能,並最終將其整合為類似整個人類大腦的架構。

儘管目前許多應用都突出了AI執行單項任務的能力比人類更高,但它們還不是真正的AGI。也就是說,這些AI隻擅長執行單項任務,而沒有能力做其他任何事情。因此,雖然某個AI應用程序在執行單項任務時,可能像100個訓練有素的人類那樣高效,但在執行任何其他任務時,它可能會輸給五歲的孩子。例如,計算機視覺系統雖然擅長於理解視覺信息,但不能將這種能力應用於其他任務。相反,人類雖然有時不太擅長執行某些任務,但比當今任何現有的AI應用程序都可以執行更廣泛的任務。

此外,AI必須在需要使用大量訓練數據執行預期功能方面的培訓,但人類可以用明顯較少的經驗進行學習。同時,人類以及獲得AGI支持的機器代理可以更好地概括總結,將從一種經驗中學到的東西應用到其他類似的情況中。這種AGI不僅會用相對較少的訓練數據進行學習,而且還會將從一個領域獲得的知識應用到另一個領域。這種能力將使AI系統的學習過程類似於人類,不僅能極大地減少訓練時間,同時還能使機器獲得更多更強的能力。

如何開發AGI

谷歌DeepMind聯合創始人德米斯·哈薩比斯(Demis Hassabis)認為,開發AGI的秘密藏在自然界。哈薩比斯及其同事認為,AI研究人員從事“仔細檢查人腦內部工作原理”至關重要。他說:“研究動物認知及其神經實現也起著至關重要的作用,因為這可以提供一個窗口,讓我們了解更高水準的通用智能的各個重要方面。”

他們認為這樣做將有助於激發機器學習的新方法和神經網絡的新架構,神經網絡是使機器學習成為可能的數學模型。哈阿比斯表示,大多數AI系統都缺少“人類智能的關鍵成分”,包括嬰兒如何構建世界的心理模型,以指導對下一步可能發生的事情的預測,並允許他們進行計劃。目前AI模型中還缺少“人類僅從少數幾個例子中學習”的能力,以及將在一個實例中學到的知識應用到許多類似情況的能力,例如新司機學習如何駕駛,而不僅僅是掌控他們正在練習的汽車。

與此同時,Facebook的首席AI科學家雅恩·勒坤(Yann LeCun)由於在卷積神經網絡方面取得的成就,他在機器學習研究中發揮了先鋒作用。他認為通向AGI的道路在於開發能夠建立世界模型的系統,這些模型可以用來預測未來的結果。他表示,實現這個目標的絕佳途徑可能是使用生成性對抗網絡(GAN)。

在GAN中,兩個神經網絡進行戰鬥,“生成器”網絡試圖創建令人信服的“假”數據,而“鑒別器”網絡試圖區分假數據和真實數據。隨著每個訓練周期,生成器在產生假數據方面變得更好,而鑒別器則可獲得更敏銳的眼睛來識別那些偽造品。通過在訓練過程中使兩個網絡相互競爭,兩者都可以獲得更好的性能。GAN已經被用來執行許多引人注目的任務,例如將視頻場景從白天轉到晚上,或者從冬天轉到夏天。

到目前為止,研究人員已經確定了三個必須解決的關鍵要素,這樣才能將AGI帶入現實世界:

更多大數據

AI開發最常見的方法涉及名為深度學習的技術,它需要吞噬大量數據,在模擬神經元網絡(模仿人腦)中處理數據,然後使用發現來編寫自己的洞見。

例如,在2017年,谷歌向其AI提供了數千張貓的圖片,其深度學習系統不僅用來學習如何識別貓,還用來區分不同品種的貓。不久之後,他們推出了Google Lens,用戶可以拍下任何東西的照片,谷歌不僅會告訴你它是什麽,還會提供更多有用的上下文內容來描述它。但若沒有目前在其圖像搜索引擎中的數十億圖片訓練,Google Lens不太可能出現。然而,這種大數據和深度學習的組合仍然不足以帶來AGI。

更好的算法

在過去十年裡,谷歌子公司、AI領域的領先者DeepMind通過將深度學習與強化學習的優勢相結合而引起了轟動,強化學習是一種免費的機器學習方法,旨在教AI如何在新的環境中采取行動,以實現既定目標。

多虧了這種混合策略,DeepMind的AI應用AlphaGo不僅通過下載規則和研究人類高手的策略來自學圍棋,而且在與自己進行了數百萬次的對陣之後,它甚至能夠使用遊戲中前所未見的動作和策略擊敗最好的圍棋玩家。同樣,DeepMind的Atari軟體實驗包括給AI安裝攝影頭,讓它看到典型的遊戲螢幕,對它進行編程,使其能夠輸入遊戲指令(比如操縱杆按鈕),並給它設定單一的目標來增加得分。結果,幾天之內,它就自學了如何玩,以及如何掌握數十款經典的街機遊戲。

但是,儘管這些早期的成功令人振奮,但仍有些關鍵的挑戰需要解決。首先,研究人員正致力於教授AI名為“組塊”的技巧,人類和動物的大腦非常擅長這種技巧。簡單地說,當你決定出去買雜貨時,你可以想象你的最終目標(買個鱷梨)和關於你將如何去做的粗略計劃(離開房子-前往雜貨店-買鱷梨-回家)。

但你不會去計算這個過程中的每次呼吸,走的每步路,遇到的可能意外事件。相反,你的頭腦中有個概念(塊),它提醒你要去哪裡,並調整你的旅行以適應出現的任何情況。這種能力是人類大腦相對於AI來說仍然具有的關鍵優勢之一,它能在不事先知道每個細節的情況下,設定目標並隨時調整。這項技能將使AGI能夠更有效地學習,而不需要上面提到的大數據。

另一個挑戰是AGI不僅要讀書,還需要理解它背後的意義或背景。從長遠來看,這裡的目標是讓AI閱讀報紙文章,並能夠準確地回答一系列關於它所讀內容的問題,有點兒像寫讀後感。這種能力將把AI從處理數字的簡單計算機轉變為可以處理具體含義的實體。

總體而言,能夠模仿人腦的自我學習算法的進一步發展將在最終創建AGI中發揮關鍵作用,但除了這項工作,AI社區還需要更好的硬體。

更好的硬體

使用上面解釋的當前方法,AGI只有在我們認真提高可用於運行它的計算能力後才能成為可能。

如果我們考慮人腦的思考能力並將其轉換為計算術語,那麽對人類平均智力能力的粗略估計是1exaflop,即每秒進行100億億次浮點運算。相比之下,到2018年底,世界上最強大的超級計算機之一,日本的AI Bridging Cloud每秒浮點運算可達13億億次,遠低於人腦。

這些超級計算機的運行需要龐大的空間、電力支持,建造成本高達數億美元。而人類的大腦只需要極少的能量,可以裝在周長約50厘米的頭骨裡。換句話說,如果我們想讓AGI像人類一樣常見,我們就需要找出更經濟地創建AGI的方法。

為此,研究人員正開始考慮用量子計算機為未來的AI提供動力。量子計算機的工作方式與我們過去半個世紀始終在製造的計算機截然不同,單個量子計算機的計算能力將超過目前在全球範圍內運行的超級計算機的總和。它們的體積以及消耗的能源都將比目前的超級計算機小得多。

AGI比人類更聰明?

是的,這樣的智能不僅將具有與人類相同的常見能力,它還將被當今計算機相對於人類的優勢所增強,包括完美的回憶,以及近乎即時執行計算的能力。

AI系統,特別是AGI系統是以人腦為參照設計的。由於我們自己還未能全面了解人類的大腦及其功能,因此很難對其進行建模和複製。然而,創造能夠複製人腦複雜計算能力的算法在理論上是可能的,正如丘奇-圖靈論題(Church-Turing thesis)所解釋的那樣,簡單地說,在給定無限時間和記憶體的情況下,任何類型的問題都可以通過算法解決。這是有意義的,因為深度學習和AI的其他分支基本上是記憶體的函數,並且具有無限(或足夠大的)記憶體可能意味著可以使用算法解決最複雜級別的問題。

人工智能發展新能力的速度之快意味著,當人工智能研究團體開發AGI的速度讓我們感到驚訝時,代表著我們可能正接近轉捩點。

與AGI相關風險

毫無疑問,AGI系統可以幫助改變世界。有些更強大的應用包括治愈疾病,解決複雜的全球挑戰,如氣候變化和糧食安全,以及引發全球科技繁榮。

但是,如果不實施適當的控制措施,可能會導致災難性的後果。儘管我們在好萊塢電影中看到了許多恐怖場景,但AGI對人類的生存威脅不太可能涉及殺手機器人。麻省理工學院教授馬克斯·泰格馬克(Max Tegmark)認為,這個問題並非是邪惡意願的問題,而是智能相關問題。超級智能系統將識別出更有效的做事方式,制定自己的實現目標的策略,甚至制定自己的目標,這將會帶來更大風險。

雖然AGI尚不存在於現實中,但它已經在科幻故事中出現了100多年,並在現代被諸如《2001:太空漫遊》(2001:A Space Odyssey)這樣的電影所普及。小說中對AGI的描述千差萬別,儘管更傾向於反烏托邦式的觀點,即智能機器消滅或奴役人類,就像在《黑客帝國》(The Matrix)或《終結者》(The Terminator)等電影中看到的那樣。在這樣的故事中,AGI經常被塑造成要麽對人類的苦難漠不關心,要麽甚至一心要毀滅人類。

相比之下,烏托邦式的想象,如伊恩·班克斯(Iain M Banks)的小說,將AGI塑造成仁慈的人類守護者,運行著沒有痛苦的平等主義社會,在那裡,人們可以令人窒息的速度追求他們的激情和技術進步。

這些想法是否與現實世界的AGI有任何相似之處還不得而知,因為這類東西還沒有被創造出來。或者基於許多在AI領域工作的人的說法,它們甚至尚未接近被創造出來的水準。從理論上講,AGI可以完成人類可以完成的任何工作,甚至承擔很多人類無法完成的任務。至少,AGI能夠將類似人類的靈活思維和推理與計算優勢結合起來,比如近乎即時的回憶和瞬間的數字運算。

使用這種智能來控制機器人,至少像人那樣靈巧,將會產生全新的機器,可以執行任何人類任務。隨著時間的推移,這些智能將能夠接管人類所扮演的每個角色。最初,人類成本可能比機器更便宜,或者人類與AI並肩工作可能比單獨使用AI更有效。但是AGI的出現可能會使人類參與變得不必要。

有效地結束對人類勞動力的需求將會產生巨大的社會影響,既影響到人們養活自己的能力,也影響到就業所能帶來的目的感和自我價值感。即使在今天,關於目前存在的狹義AI對就業的最終影響的爭論,也導致有些人呼籲引入普遍基本收入(UBI)制度。

在UBI下,社會上的每個人都將得到政府的定期補貼,沒有任何附加條件。這種做法存在分歧,有些倡導者認為,這將打造普遍的安全網,並降低官僚成本。然而,其他反貧困活動人士製作的經濟模型顯示,如果取代歐洲現有的社會保障體系,這樣的計劃可能會加劇弱勢群體的貧困。

除了對社會凝聚力的影響,AGI的出現可能產生更為深遠的影響。雇用與最優秀、最聰明的人類同樣聰明的AI大軍,可以幫助人類加速開發新的技術和方法,以緩解氣候變化的影響等棘手問題。在更平凡的層面上,這樣的系統可以執行日常任務,從手術和醫療診斷到駕駛汽車,其水準最終都將高於人類。總體而言,在時間、金錢和生命方面,這可能都是個巨大的積極因素。

不利的一面是,這種結合起來的智能也可能產生深遠的負面影響:賦予監視和控制民眾的權力,將權力牢牢掌握在少數人或組織手中,以及被用於可怕的武器中。我們可以想象下這樣的例子:

——負責預防HIV的AGI系統決定通過殺死所有攜帶這種病毒的人來根除這個問題,或者某個負責治療癌症的AGI系統決定殺死所有任何有遺傳傾向的人;

——擁有自主能力的AGI軍用無人機做出決定:為了保證敵人目標被徹底摧毀,唯一的方法就是消滅整個社區;

——負責環境保護AGI為減緩或扭轉氣候變化,認為唯一有效途徑就是消除誘發氣候變化的技術和人類。

如何阻止AGI突破限制?

作為應對生存風險的使命的一部分,總部位於美國的生命未來研究所(FLI)為確保AGI安全的各種研究提供資金支持,並預估AI在不久的將來可能造成的傷害。

在AGI的行為受到約束之前,FLI認為有必要精確地指出它應該做什麽和不應該做什麽。該機構在一份研究優先級報告中說:“為了構建表現良好的AI系統,我們當然需要確定‘良好行為’在每個應用領域中的含義。設計簡化的規則,例如,在關鍵情況下管理自動駕駛汽車的決策,這可能需要倫理學家和計算機科學家的專業知識。”

報告中還說,確保正確的行為對於強大的AGI來說並不容易。在將強大AI系統的價值觀與我們自己的價值觀和偏好相一致方面,社會可能會遇到重大挑戰。此外,AGI中的異常行為也需要解決。就像飛機的機載軟體經歷嚴格的錯誤檢查,這些錯誤可能會引發意外的行為一樣,支持AI的代碼也應該受到類似的嚴格約束。

然而,根據FLI的說法,在AGI領域,可能需要新的驗證方法。FLI建議,應該有可能從組件構建AI系統,每個組件都已經過驗證。在行為不端的AGI風險特別高的地方,這樣的系統可能需要與更廣泛的世界隔離開來。困難在於,確保人類能夠保持對AGI的控制並非易事。例如,系統可能會盡其最大努力繞過阻止其完成所需任務的問題。FLI建議對可修複系統進行更多研究,這些系統不會表現出這種行為。

另一個潛在的問題可能源於AI在追求目標時對環境造成的負面影響,導致FLI建議將更多的研究設定在範圍有限的“國內”目標中。此外,報告建議需要對AI中“智能爆發”的可能性和性質進行更多的研究。畢竟在AI中,自我提高的AI能力遠遠超出人類控制它們的能力。

IEEE對構建安全的AGI系統有自己的建議,這與FLI研究的建議大體相同。這些包括AGI系統應該保持透明,並且它們的推理應該被人類操作員理解,應該開發可以測試AI系統的安全環境,AI系統應該被開發為在發生篡改或崩潰的情況下主動關閉,以及這樣的系統不應該抵抗操作員的關閉。

今天,如何以有利於整個社會的方式開發AI,是非盈利組織OpenAI正在進行的研究課題。FLI的研究推測,如果有正確的製衡,AGI可能會讓社會變得更好:“對AI的探索成功,可能會給人類帶來前所未有的好處,因此,研究如何在避免潛在危險的同時,最大限度地發揮這些好處是值得的。”

AGI何時能成真?

那麽AGI何時會被發明出來?這個時間很難確定,因為我們尚未找到通往AGI的明確路徑。今天,機器學習系統是在線服務的基礎,允許計算機識別語言、理解語音、識別人臉以及描述照片和視頻。這些最近的突破,以及備受矚目的成功,如AlphaGo在超級複雜的圍棋遊戲中戰勝人類,可能給人留下這樣的印象:社會正處於開發AGI的快車道上。

然而,目前使用的系統通常都是單調的,經過廣泛的培訓後,在某項任務上表現出色,但對其他任何事情都毫無用處。它們的性質與能夠執行任何任務的AGI截然不同,因此這些狹義AI不一定是開發AGI的踏腳石。史丹佛AU實驗室的Yoav Shoham教授,最近強調了當今狹義AI的有限能力。

他在報告中指出:“雖然機器在執行某項任務時可能表現出色的性能,但即使對任務稍加修改,其性能也可能急劇下降。例如,一個能讀懂漢字的人很可能會聽懂中國話,了解些中國文化,甚至會在中餐館提出很好的建議。相比之下,這些任務卻需要許多不同的AI系統來完成。”

雖然在理論上複製人腦的功能是可能的,但到目前為止還不可行。因此,在智能方面,我們離實現AGI還有很大的距離。然而,從時間角度上看,AI發展新能力的速度之快意味著,當研究團體開發AGI的速度讓我們感到驚訝時,我們可能正接近轉捩點。專家預測,預計到2060年將出現AGI或奇點。

儘管存在這種不確定性,但仍有些高調的支持者認為AGI近期就能出現。或許最著名的就是谷歌工程總監雷·庫茲韋爾(Ray Kurzweil),他預測,到2029年,將存在能夠通過圖靈測試的AGI。到2040年,經濟實惠的計算機每秒執行的計算次數,將相當於整個人類大腦的總和。

庫茲韋爾對技術進步速度的信心來源於他所謂的加速回報定律。2001年,他稱技術變革成指數性爆發,即每次進步都會加速未來的技術突破速度,這意味著人類將在21世紀經歷相當於此前20000年的技術進步。計算機處理能力和腦映射技術等領域的這些快速變化支撐了庫茲韋爾對近期開發出支持AGI所需硬體和軟體的信心。

他認為,一旦AGI出現,它將以指數速度自我改進,迅速進化到其智能在人類無法理解的水準上運行的程度。他將其稱為“奇點”,並表示這個時刻將在2045年發生,那時將出現“比今天所有人類智能強大10億倍”的AI。

因此,雖然就能力而言,我們還遠未實現AGI,但AI研究的指數級進步可能會在我們的有生之年或本世紀末最終導致AGI出現。AGI的發展是否有益於人類,仍有爭議和猜測。對第一個真實世界AGI應用程序出現所需時間的準確估計也是如此。但有一件事是肯定的,AGI的發展將觸發一系列事件和不可逆轉的變化(好或壞),這些變化將永遠重塑我們所知的世界和生活。

「矽谷封面」系列是為科技圈大咖訪談、重磅研究報告和大公司深度調查等匯總的欄目,旨在為科技資訊愛好者提供最有思想深度的優質好文。

獲得更多的PTT最新消息
按讚加入粉絲團