每日最新頭條.有趣資訊

“圍剿”殺人機器人,全球AI界大牛齊出手!

機器人可以用來乾家務,也可以用於暴力目的。如何劃定機器人的用途界限?針對這個問題,人工智能(AI)領域產生了很大分歧。

韓國科學技術院(KAIST)是一所知名學府,擁有首屈一指的科學實驗室。從液態電池到疾病傳感器,他們開發了各式各樣的東西。如今,KAIST和韓華集團簽署協定,為後者研發人工智能武器。韓華集團曾無視聯合國禁令,開發“集束彈藥”這種毀滅性武器。如果加上人工智能,武器恐怕會更加致命。

▌殺人機器人項目

這是去年 11 月伯克利大學教授 Stuart Russell 在聯合國特定常規武器公約會議上放出的一段虛擬影片。儘管這段影片和其中的殺人機器人並不真實,但其中的科技目前已經存在。試想如果這種技術落入到恐怖分子手裡,後果將難以設想。

機器人的發展如果趨向惡的一面,那就像是潘多拉魔盒,異常凶險。

3 月,Google 利用 AI 技術幫助美國國防部分析其無人機拍攝的影片片段,就遭到了近期 3000名員工聯名反對,這些人認為 AI 技術已經被用成了不正當殺人利器。

人工智能在世界各地的軍隊中的使用引發了人們的擔憂,並對這種武器的準確性以及區分朋友和敵人的能力提出了質疑。

近日,超過 50 位人工智能領域的專家聯名抵製韓國科學技術高級研究院 KAIST 開發“殺人機器人”。這是繼去年 8 月,業界的 116 位機器人和 AI 公司創始人和首席執行官們公開敦促聯合國采取行動,阻止“機器人殺手”出現的後繼浪潮。

他們的訴求一致,就是為了防止 AI 可能引發槍彈和核武器發明之後在戰爭領域的第三次革命,以及避免各國加速開發自動化武器進行軍備競賽。可以說,這是學界和業界對殺人機器人的聯合“圍剿”。

很多與政府國防相關的 AI 技術應用,都會觸動業內從業者敏感的神經。

KAIST 與國防公司韓華系統(Hanwha Systems)在自主武器上的合作也是如此,雖然目前的消息還未得知它們具體的一些項目細則,但如果你了解韓華系統的一些基本情況,也就會明白這次合作的個中利害。

作為韓國最大的武器製造商之一,韓華系統製造的集束彈藥(cluster munitions)在國際條約下已被禁止在 120 個國家使用;而且韓國與美國、俄羅斯和中國一樣,都不是該公約的簽署國。十年前,挪威的未來基金將韓華列入了道德黑名單中。

其次,韓國科學技術院相當於韓國的麻省理工學院,綜合它們在各自領域強大的影響力和技術實力,兩者結合很難不引起人們的警惕。

2 月 20 日,KAIST 開放了國防和人工智能聯合研究中心,校長 Sung-Chul Shin 當時表示“將為發展國防技術奠定堅實的基礎”。

▌“愚蠢的 AI”

Toby Walsh 正是此次呼籲抵製韓國殺人機器人的組織者。

在《衛報》發出報導一天之後,今天他就署名發表了一篇名為《現在從殺人機器人手中拯救世界還不算太晚》的文章。

他稱自己所說的殺人機器人不是電影《終結者2:審判日》中的 T101 型機器人。“與之相比,我最擔心的是愚蠢的 AI。”

他認為不受人類控制,自動化武器將成為大規模殺傷性武器。但我們現在還來得及阻止戰爭領域的第三次革命發生。“如何做到這一點並不涉及時間旅行,或者任何火箭科學。我要說的是,用人類發明的機器去決定人類的生死這在道德上是不可接受的。”

現在,我們在阿富汗或伊拉克的天空之上看到的無人機,還只是半自動化武器,但從技術上來說,用電腦取代操作計程車兵現在可以輕而易舉做到。到那時,當有人遭受自動化武器的攻擊時,我們甚至很難找出幕後真凶,這會讓作惡者更加猖狂。

完全自動化無人機技術幾乎與自動駕駛汽車使用的是相同技術。比如識別、追蹤和避開行人的算法可以很容易地變為識別、跟蹤和定位戰鬥人員的算法。

那麽如何防止這個世界在未來充滿殺人機器人?

Walsh 認為,與核武器不同,自動化武器將變得廉價並且是一種非常有效的武器,這聽起來似乎將難以禁止。但有一個很好的歷史先例表明禁止是可行的。

他以化學武器為例,雖然它也像自動化武器一樣便宜,背後使用的技術廣泛存在,不可能完全禁止。但現在我們也並沒有禁止化學,而禁止的是化學武器,因為使用這些武器的人在道德上會被人類所唾棄,而這也是我們能夠防止未來會充滿殺人機器人的原因。

▌抵製聲潮

抵製殺人機器人的聲潮在擴大。

目前,已經有 20 多個國家開始要求全面禁止製造殺人機器人。而那些參與抵製的 50 多位頂尖 AI 學者也表示,他們不會參與此類項目的研究,不會與來自 KAIST 的訪問者進行合作。

值得一提的是,參與抵製的除了有 Yoshua Bengio、Geoffrey Hinton 這些 AI 領域的知名學者之外,南京大學人工智能學院院長周志華教授也位列其中。

(參與抵製的部分學者名單)

儘管周志華教授此前並未發表與此相關的看法,但他曾在一篇《關於強人工智能》的文章中指出,現在絕大多數 AI 研究者都認為強人工智能不能做、不該做,即便強人工智能是可能的,也不應該去研究它。這在一定程度上也能說明他對這種殺人機器人的態度。

人們對人工智能的這種警惕感並不是近期才出現的,早在 2015 年 1 月,Stuart Russell 教授就發出了一封警告 AI 研究的公開信,響應者上千人,其中包括哲學家,來自 Google、Facebook 和微軟的 AI 研究者,特斯拉 CEO 馬斯克,以及已然逝去的物理學家霍金。

此次抵製事件,也像是在下周即將在日內瓦召開的聯合國會議上對“殺手機器人”議題討論的一次鋪墊。這或許標誌著,科學界將對 AI 武器進行更強有力的控制。

目前,聯合國正在商討如何控制自主武器對國際安全造成的威脅,而KAIST卻在加速這類武器的軍備競賽,這非常令人失望。因此,50多位全球頂尖AI專家決定抵製此舉——他們宣布將拒絕和KAIST任何部門進行合作,直到KAIST保證絕不開發缺乏人類控制的自主武器。

獲得更多的PTT最新消息
按讚加入粉絲團