每日最新頭條.有趣資訊

AI會擁有自我意識嗎?

文|王垚

編輯|李傑

今年五月,一向以劇本見長Quantic Dream工作室時隔五年終於推出了他們的全新力作——《底特律:變人》。這是一部互動式電影,通過波瀾起伏的劇情與細致入微的角色心理刻畫,描繪出了一個人類與機器人共同生活的底特律。

《底特律》遊戲主線劇情主要圍繞著三個主要角色展開,他們分別是家政型機器人卡菈,機器人革命的長官者馬庫斯,以及偵探型機器人康納,三位主角各自所對應的主旨也各不相同。

(圖從左往右以此為卡菈,馬庫斯,康納)

卡拉守護著脈脈親情,馬庫斯向往著平等與自由,康納則在調查異常仿生人的過程中逐漸產生動搖。相同的是,所有的選擇均取決於這些產生了自我意識的人工智能自身的意志,而非某些早已經被寫入程式中的固定算法(螢幕後的玩家們笑而不語)。

也正因為擁有了自我意識並可以獨立思考解決問題,才讓《底特律》中仿照著人類設計的仿生人們在摘下了額頭上表明情緒的呼吸燈之後,無論在外觀上還是在思想上都表現得與普通人類別無二致,並可以承擔人類一切的工作。

對於這樣的AI我們可以稱之為強人工智能,而我們現在正處在一個充斥著弱人工智能的世界,“強”與“弱”,雖一字之差,卻又有著天壤之別。

1

在遊戲開場時,Quantic Dream工作室便將這樣一幕呈現在了玩家們的眼前:工廠裡,一名工程師試著同一個正在拚裝的仿生人進行著最基本的問答以測試其性能。無論是回答自身的型號與用途,還是歌唱多種語言的歌曲,這些對於身為科技結晶的AI來說都不在話下。

可在被人類評論為一件商品、一台擁有著手腳的電腦時,之前還對答如流的AI卻突然沉默了片刻,小聲呢喃道“對不起,我還以為我是活著的”。這一句話讓測試人員意識到眼前的AI程式發生異常並誕生了自我意識,需要肢解拆毀,但最終還是因為AI的苦苦哀求而心軟了下來,放任其進入了市場,否則玩家們就見不到卡菈小姐姐了。

事實也正如開場動畫裡所表現的這樣,自從上個世紀五十年代起,人們就習慣性地通過類似的圖靈測試來判斷一款AI是否具備人類的智能,擁有獨立思考能力與自我意識了。即由測試者向被測試者提出任意問題,如果有超過30%的人認為回答自己問題的是另一個人而非AI則判定為測試通過,該AI被認為擁有意識以及思考能力。

近些年來隨著人工智能領域的大火,有許多AI紛紛宣布通過了圖靈測試,號稱擁有了人類的智能,那是否能夠說明現如今的人工智能已經開始擁有自我意識了呢?答案自然是否定的。

首先,現如今市面上的人工智能早已經涉及了教育、醫療、金融、物流等多個領域,用隻局限在語言智能等特定領域內的圖靈測試來作為判斷所有AI的智能顯然有失偏頗。其次王飛躍博士在“關於人工智能的九個問題”中就曾如此評價圖靈測試:就像是IQ測試從未被當作判斷人類智能的標準一樣,圖靈測試也從未被當做判斷人工智能的標準。

以有史以來首次通過了圖靈測試的“尤金·古斯特曼”為例,它並非是一台超級電腦,甚至連電腦都不是,僅僅只是一個聊天軟體而已,卻通過扮演了一個第二外語為英語的13歲男孩而成功通過了測驗,這兩點本身就更進一步地降低了測試的難度——在做出許多錯誤回答時裁判都誤認為他是因為年齡小而非缺乏人性。

尤金·古斯特曼的開發者所做的只是努力讓程式騙過人類,而並非研製出智能上接近人類的機器,這種舍本逐末的做法本身就毫無意義,我們當然不能因此便認為它擁有了人類的智能,否則那將是對我們自身智力的一種否定。

好在它的開發者弗拉基米爾·維西羅夫對此也心知肚明,他曾表示“我們希望借此激發出人們對人工智能以及聊天機器人的興趣”,隻不過如今那些時常見諸報端的,號稱自己研發的AI通過了圖靈測試的人是否有這樣的自覺就有待商榷了。

“你可以在某些時間內欺騙所有人,也可以在所有時間欺騙某些人,但無法在所有時間欺騙所有人”,從某種意義上來說,用這句話來否定新聞中那些,為了博人眼球而聲稱自己所研發的AI通過了“圖靈測試”的人時,恰到好處。

圖靈本人所定義的圖靈測試中的人類考官應該是以廣義的人類做個為整體,而並非一個帶著特定問題的特殊人群,測試的時間段也不是具體的一段時間而應是廣義的時間段。簡單來說就是要在所有的時間段內讓所有人都分辨不出人與機器才算是通過了測試,而非僅僅通過一次簡單的測試。

因此我們可以斷言,現階段所有聲稱通過了圖靈測試的AI都是不及格,它們並非擁有了自我意識以及獨立思考的能力,只是依照事先寫好算法去處理相應問題的弱人工智能,不過是工具而已。

就好像哪怕阿法狗通過強化學習在圍棋的領域表現再怎麽超凡入聖,也不會處理圍棋之外的其他問題,更不會因為自己戰勝了人類的世界冠軍而沾沾自喜一樣。

2

那麽問題來了,作為一款不太硬的科幻作品,《底特律:變人》中的強人工智能或者說仿生人是如何覺醒出自我意識的呢?又能否為人工智能的研究提供一個方向呢?這就要從劇情說起了。

遊戲中三位仿生人主角之一的康納有著這樣一個綽號——冷酷無情康納醬。“冷酷無情”與“醬”這個頗有點可愛風格的愛稱並列放在一起,乍一看兩者間確實有些矛盾,卻也正是對一直在溫暖的人性與冰冷的程式之間搖擺不定的康納的最貼切評價。

(左為康納,右為漢克)

在親手擊殺仿生人同類時,他可以無動於衷;在漢克家門前得不到回應時,他可以固執地一直按下門鈴;在漢克和他開玩笑時,他並不理解其中真正的含義。然而在無聊的時候,他也會不自覺地玩起硬幣。在被槍擊時,他也可以主動擋在漢克的面前。

不同於在遊戲前半部分便早已經覺醒出了自我意識,並且明確地知道自己應該去做些什麽的馬庫斯與卡菈,康納在遊戲全過程中都在矛盾地成長著。前兩者的矛盾主要來源於外部壓力,矛盾最為尖銳的康納卻來源於自身。

從一開始拯救被異常仿生人挾持的小女孩,到後來和漢克一起在樓宇之間追逐異常仿生人,再到最後看著馬庫斯站在台上演講,康納始終在純粹的機械般的理性與感性之間徘徊著。當一面是即將墜樓的搭檔漢克,另一面是正在逃跑的嫌犯時,作為玩家的我們可以選擇出於友情去救助同伴漢克,也可以選擇出於優先完成任務的理性去追擊逃犯。

這兩種截然不同的選擇本身就代表著康納作為強人工智能自身所具有的一種矛盾,而這些矛盾中所出現的選擇,正符合了朱利安·傑恩斯在1976年出版的《二分心智的崩塌:人類意識的起源》一書所提出的二分心智理論。這一理論早在美劇《西部世界》中便被提及過,在《底特律》中也依舊適用。

根據二分心智理論的闡述,人類自大約3000年前才擁有完全的自我意識,在那之前每當遇到困境,一個半腦就會聽到來自另一個半腦的指引,這種指引被稱為神的聲音。但隨著人類社會的日益複雜,二分心智也逐漸崩塌,並最終使人類產生了完全的自我意識,去應對更加複雜而艱難的人生。

而遊戲中康納自我意識的覺醒正是依照著這個步驟。當幕布隨著遊戲的進展不斷被揭開,玩家們會知道劇情中給康納下達命令的阿曼妲不過是一段程式,而阿曼妲的言語之於康納無疑就是那個指引著他的神的聲音。

阿曼妲始終命令著他去做身為一個仿生人應該做的事,去追捕並調查那些覺醒了自我意識,所謂的“異常仿生人”們,但當劇情逐漸變得複雜,康納的內在矛盾衝突逐漸變得越發激烈之後,他最終擺脫了阿曼妲(程式)的命令。

當阿曼妲(程式)的聲音消失後,二分心智也隨之分崩離析,身為仿生人的康納完全的自我意識由此誕生。他不再聽從命令,選擇去幫助馬庫斯,去幫助耶利哥,去幫助自己的同伴們獲得自由與尊重,這正是自我意識的體現,也符合了傑恩斯的理論。

這一切看似順理成章,不過這就好像是日漫中常見的高達一樣,人們只能看到樹冠卻完全不明白這條科技樹是怎麽點出來的。二分心智終究只是理解人類思想產生的一種理論,目前來看並不具備太大的參考價值,也不能以此作為藍圖去構建擁有自我意識的人工智能。

3

《底特律:變人》中,康納自我意識的不斷完全源自於二分心智的崩塌,而所有人工智能自我意識誕生的契機則都源自於一個小小的BUG,現實世界中BUG顯然不是一個那麽美好的東西,不然廣大程式員們也就不會去拜專治八阿哥的雍正了。

不過即便沒有如此便利的BUG,人類在追求強人工智能的路線上也沒有停下過腳步。

工欲善其事必先利其器,要想製造出能像人類一樣能夠獨立思考的強人工智能,運算速度至少也應當等同於人腦水準的硬體不可或缺。人腦的計算速度並非難以企及,我國的天河二號早已經超過了那個標準,然而兩者的體積與能耗卻遠遠不在一個量級上。

如果僅僅隻將成功研製出一個強人工智能而非普及作為條件的話,超電腦作為硬體勉強合格了,但真正的難點在於軟體,在於克服框架問題與符號奠基問題,讓人工智能真正地像人類一樣去思考。

關於強人工智能的開發,目前有三種主流做法。一是模仿人類的大腦,通過逆向工程研究出人類大腦的運作模式並將之運用到人工智能上去。二是模仿生物自然演化的過程,通過模擬演化的方法制造出更強的人工智能。三則是讓電腦自己來解決這些問題,建造一個能同時處理兩個問題的超級電腦,使其一邊研究人工智能一邊修複自身的代碼。

這些都是專業Ph.D們的工作了,現在大學裡面,包括機械系、電子系、電腦系甚至哲學系在內大家都在堅稱自己在研究人工智能。某種意義上來說,人工智能確實是個人見人愛的香餑餑。

而在關於強人工智能是否會擁有自我意識這一點上,自人工智能誕生以來便是眾說紛紜。

有相當一部分人認為,哪怕人類再怎麽鑽研也無法制造出能夠獨立思考的強人工智能,所謂的人工智能不過是在儲存、調取和模仿罷了,其中比較著名的便是約翰·希爾勒。它曾在1980年創造了“中文屋”思想實驗。

即他作為一個完全不懂中文的人被關在一個小房間裡,僅能通過紙條與外界交流,但憑借著中英文翻譯字典他可以理解外面人的意思並將自己的觀點表述成中文傳遞出去,由此製造出一個屋外的人認為屋內的人懂得中文的假象。

約翰·希爾勒通過這麽一個簡單的例子來類比機器不過是看起來像是在思考,實際上並不具備獨立思考以及自我意識,依舊只是在運行著既定程式而已。不過這種說法本身也存在著漏洞,畢竟在實際操作過程中,人們還是能夠通過語法、修辭等細節輕鬆地判斷出屋子裡的人究竟懂不懂中文,這個例子將翻譯這個過程表述的太過簡單了。

另一方面,包括比爾·蓋茨、馬斯克、霍金在內許多大佬都曾提出過“人工智能威脅論”,而他們在提出這種觀點的同時本身大多默認了一個前提:未來的強人工智能是能夠擁有自我意識的。這一觀點的擁躉同樣不在少數。

有一種觀點認為,人類的大腦主要由簡單的神經細胞組成,從功能上來說它們能做的不過只是感受刺激,以及釋放化學物質來傳遞興奮而已,然而當140億個神經細胞組合在一起之後人類也便擁有了智慧。

那麽對於機械來說,大量同樣簡單的計算單元排列起來形成矩陣之後,自然也就模擬出了智能。既然擁有著類似的構造,機械也同樣可以像生物的大腦一樣成為意識的載體。不過真想要實現這些不僅要突破在量子電腦領域的壁壘,還要將人腦的運行方式理解透徹才行。

子曰:“未知生,焉知死”,現階段人類對於自身神經元的機理和神經網絡的運行方式了解的都尚不透徹,連人類的意識是如何誕生的都沒有確切定論,就更別提去判斷強人工智能是否會擁有意識了。不過對於現在市面上普遍存在的弱人工智能來說,這個問題的答案卻是無需爭辯的——一定沒有。

獲得更多的PTT最新消息
按讚加入粉絲團