每日最新頭條.有趣資訊

霍金的遺願清單:離開地球和警惕人工智能

霍金的遺願清單:離開地球和警惕人工智能

輪椅上的史蒂芬斯·霍金終於離開了地球,可以和愛因斯坦、牛頓他們一起打打牌了。

在過去的二十年裡,霍金是明星,除了繼續探索宇宙理論,他也出現在各種場合,為所有關切人類命運的主題發聲。

而在他去世前的這幾年中,霍金最關注的話題就是:離開地球和警惕人工智能

現在我們就梳理下霍金通過各種管道談論這兩個話題的言論。

01

離開地球

2011年

霍金在接受美國影片共享網站BigThink訪談時稱:“地球將在兩百年內毀滅,人類要想活命只能移民外星球。

2017年11月5日

北京騰訊WE大會現場,霍金通過影片指出人類移民太空的原因所在:

“一個原因是,對我們來說,地球變得太小了。在過去二百年中,人口增長率是指數級的,即每年人口以相同比例增長。目前這一數值約為1.9%。這聽起來可能不是很多,但它意味著,每四十年世界人口就會翻一番。2022年,我將慶祝自己80歲的生日,而在我人生的這段歷程中,世界人口比我出生時膨脹了四倍。”

“這樣的指數增長不能持續到下個千年。到2600年,世界將擁擠得“摩肩擦踵”,電力消耗將讓地球變成“熾熱”的火球。這是岌岌可危的。然而我是個樂觀主義者,我相信我們可以避免這樣的世界末日,而最好的方法就是移民到太空,探索人類在其他星球上生活的可能。”

2017年7月

霍金痛批美國總統川普退出氣候問題《巴黎協定》的決定,可能將導致不可逆轉的氣候變化,警告稱此舉或將讓地球變成一個金星一樣的溫室星球。

霍金表示:“我們正在接近全球變暖不可逆轉的臨界點,川普的決定可能將地球推過這個臨界點,變成像金星一樣的星球,溫度高達250度,並且下著硫酸雨。”

2017年6月

在播放的紀錄片《遠征新地球》(ExpeditionNewEarth)中,霍金說:“在未來一百年內,人類為生存必須離開地球,在太空尋求新家。”

2016年4月12日

霍金在紐約宣布啟動“突破射星”計劃,將同俄羅斯商人尤裡·米爾納(YuriMilner),以及美國社交網站臉書創始人兼總裁祖克柏(MarkZuckerberg)合作建造能以五分之一光速飛往比鄰星的微型星際飛船。

02

人工智能

除了地球即將面臨的各種風險,霍金更關切人類正在創造一個毀滅自己的怪物:人工智能(AI)。

2017年3月

霍金在接受英國《泰晤士報》采訪時再次發出警告:

人類需要控制以人工智能為代表的新興科技,以防止它們在未來可能對人類生存帶來的毀滅性威脅。”

“自從人類文明開始以來,侵略便一直存在,往往出現在相對具有生存能力優勢的不同群體之間,而未來人工智能進一步發展便可能具備這種‘優勢’。”

“他們本身也是生根於達爾文的進化論之中。因此人類需要利用邏輯和理性去控制未來可能發生的威脅。”

2016年10月19日

劍橋大學“萊弗休姆的未來智能中心(LCFI)”正式投入使用,霍金在慶祝典禮上發表了演講,批評了人工智能的無節製發展。

他認為,人工智能技術的確有希望帶來巨大的福利,比如根除疾病和貧困,但是它同樣也可能帶來危險,比如強大的自主式武器,或者幫助少數人壓迫多數人。

“我們花了大量的時間來學習歷史,讓我們面對現實,大部分的歷史是愚蠢的。所以對於那些學習未來智能的人應該表示歡迎。”

“我們生活的每一個方面都會改變。總之,創造AI的成功可能是我們文明歷史上最大的事件。”

2016年1月26日

在BBC電台第四頻道播出霍金瑞思系列演講(ReithLectures),在演講中他直言,科學技術的進一步發展會惹出更多的新麻煩

同樣在這個演講中,霍金依舊認為科技進步是人類的新威脅,他甚至提及若人類最終得以在其他星球建立家園,或許還能幸存下來。

“儘管地球在某一年遭受滅頂之災的可能性很低,但隨著時間的推移,在未來幾千或幾萬年,這會是可以預見的事情。那時,我們應該已經進入太空、住到其他星球上。所以地球上的毀滅並不意味著人類的終結。”

“然而,至少在未來數百年裡我們還無法在太空世界建起人類的地盤,所以我們現在必須非常小心。”

2015年

霍金曾聯合思想家喬姆斯基馬斯克等數千名知識分子發表聯名公開信中警告:必須取締“機器人殺手”的研發和應用,人工智能方面的軍備競賽可能是人類的災難,它將助長戰爭和恐怖主義,加劇世界動蕩局勢。

這封公開信由未來生活研究所(FutureofLifeInstitute)發起,這個團體致力於緩解“人類面臨的生存風險”,警告人們啟動“人工智能軍備競賽”的危險。

公開信中談到:“人工智能技術已經達到了這樣一個地步,如果沒有法律限制,那麽這種系統的部署在未來幾年中就可以實現,並不需要等待幾十年。

2014年12月

霍金接受英國廣播公司(BBC)采訪時明確表示:“製造能夠思考的機器無疑是對人類自身存在的巨大威脅。當人工智能發展完全,就將是人類的末日。”

霍金也許對人類和科技的未來是悲觀的,他並不信任人類真的能控制科技這個怪物,但令人諷刺的是,一旦人類用科技毀掉了這個星球,他所能仰賴的也只有科技能幫這個種族在外星球繼續繁衍。

讓我們別忘記霍金的預言和警告。

記住要仰望星空,不要低頭看腳下。

無論生活如何艱難,請保持一顆好奇心。

你總會找到自己的路和屬於你的成功。

via 史蒂芬·霍金

獲得更多的PTT最新消息
按讚加入粉絲團