每日最新頭條.有趣資訊

當人工智能走上戰場,“蘇萊曼尼事件”或成常態

當地時間 2020 年 1 月 3 日凌晨,時任伊朗伊斯蘭革命衛隊少將,卡西姆 · 蘇萊曼尼於伊拉克巴格達國際機場被美軍使用無人機刺殺身亡,時年 62 歲。

當人們都在關注世界局勢的未來走向時,一家專注於將人工智能技術應用到軍事領域的公司——攝星智能科技有限公司(下稱:攝星智能)卻從專業角度出發,對整個刺殺過程進行了模擬複盤,嘗試將人工智能技術加入到整個刺殺行動當中。

假如 “人工智能” 參與刺殺

需要說明的是,以下內容僅是攝星智能公司的推演,不代表美軍真的使用或未使用這些技術。

1. 情報獲取

美軍將從其諜報網(線人、信號情報、網絡情報)獲取的信息匯總到 AI 系統,通過技術手段進行甄別、篩選,最終得出結論:蘇萊曼尼將於 2020 年 1 月 3 日 1 時左右抵達巴格達國際機場。

2. 戰法制定

以 “斬首” 蘇萊曼尼為目的進行策略生成。

因為事發地點位於伊拉克,屬美軍勢力範圍,所以可以直接從科威特基地(距事發地點 530 公里)派出無人機進行事前的偵查行動,配合衛星數據進行擬態環境構建,確認“戰場約束空間”。

圖 | 擬態環境構建

使用 AI 系統分析敵我、戰場信息,根據預定時間制定具體的策略,包括出發時間、無人機型號、數量、分工、搭載彈量以及路徑規劃等等。

3. 方案執行

無人機於預定的時間到達指定地點,實時監測戰場環境變化(溫度、風力、亮度等),根據內線和生物識別等手段確認蘇萊曼尼位置,並鎖定其乘坐汽車。

通過 AI 系統實時生成計算無人機導彈發射策略,包括發射時間、角度、導彈數量等。使用人工智能技術協同雷射製導、毫米波雷達製導,實施精準打擊。

圖 | 蘇萊曼尼所乘坐的車輛,可以看到車頭部分完好,導彈精準命中了車身

4. 效果評估

AI 系統控制無人機再次勘察現場,如出現生命跡象則再次實施打擊,確認目標死亡之後自動返航,順便生成一份詳實的行動報告,包含了對關鍵行為的解釋和影像聲音記錄等。

整個推演過程,人工智能深度參與到了整個 OODA 循環(觀察、調整、決策、行動)之中,它不帶任何感情地完成了交代的任務,就像送了一次快遞。

略顯 “骨感” 的現實

攝星智能 VP 張亞琦對 DeepTech 補充道,目前人工智能還未被賦予如此強大的自主性,以蘇萊曼尼事件為例,制定戰法、最終決定發射導彈的還是人類。並且初步判定執行本次任務的 MQ-9 無人機也是通過人為遠程遙控的方式控制。

當被問及人工智能技術應用在軍事領域有何特點時,她這樣說。

“軍事領域所使用 AI 技術的內核同民用相比並沒有本質區別,但 AI 想要在軍事領域成功應用,所面臨的挑戰更多,要求更高”。

一方面,在軍事領域沒有那麽多的數據可以供給模型訓練。比如當只有幾張模糊的圖片時,如何提高識別的準確度是非常重要的工作和很大的挑戰。

另一方面,應用在軍事領域的人工智能所面對的是更加複雜的應用場景。以自動駕駛為例,民用的自動駕駛技術無非解決安全行車的問題,約束空間很小。但軍用自動駕駛,要涉及到更多維度的決策,拋開更加惡劣的自然環境不說,軍車中 AI 能分辨敵我是最起碼的要求。

再有,戰場自古充滿了爾虞我詐,必然會產生偵察和反偵察的問題。軍事領域的人工智能必須具備偽裝和甄別偽裝能力。假如,我方情報人員得到一份敵方基地的視頻,裡面顯示的軍事部署對作戰極為關鍵,CV 技術應該有能力去識別該視頻的真假。

最後,由於軍事的特殊性,人工智能犯錯的成本極高,這不是民用能夠相提並論的。總的來說,民用領域的 AI 是大數據,小應用。但軍用領域是小數據,大應用。

圖 | 擊殺蘇萊曼尼的無人機 MQ-9

以上,是人工智能在信息獲取方面的技術特點,而在信息加工如決策方面,人工智能目前還比較弱。

張亞琦說,由於人工智能技術真正興起時間尚短,所以我國積累的真實作戰數據幾乎為零。而想要讓人工智能參與到決策之中,需要海量的數據進行訓練。

舉個例子,在實驗室中,我們可以設定有限的邊界,然後給出相應的參數,計算機可以給到我們滿意的結果,類似於紅色警戒等策略型遊戲中的 AI 模式。

但現實是非常複雜的,戰場也是瞬息萬變,一方面武器裝備不可計算,另一方面人 / 人心更不可計算,我方不可計算,敵方更不可計算。以目前的水準,計算機所能給出的戰法其實僅供參考,只有當戰場棋盤上的所有棋子都支持 AI,計算機才能給出最優解。而這種情況的出現,需要現有科技水準有一個質變。

圖 | 攝星智能 VP 張亞琦

2019 年發布的《人工智能安全標準化白皮書》中得出了同樣的結論:

當前人工智能產生突破的領域主要是專用人工智能,即弱人工智能。它缺乏自主意識,不能真正實現概念抽象、推理決策和解決問題。

人工智能正處於 “不能實用” 到“可以實用”的技術轉捩點,距離 “很好用” 還存在可解釋性、泛化、能耗、可靠性、魯棒性(健壯性)等諸多瓶頸。

“人工智能”+ 武器

目前,在將武器智能化這條路上,已經引發了大國間的軍備競賽。

這類武器一般稱為自主武器,也稱“殺手機器人”,指在無人乾預的情況下獨立搜索、識別並攻擊目標的一種武器。能夠攔截來襲導彈、炮彈的防禦類武器可以看作自主武器的雛形。

讀到這裡,也許你的腦中會浮現出一些科幻片中的角色,如變形金剛、終結者、奧創等等。

圖 | 奧創

但現實中,礙於種種因素,這些殺手機器人的樣子可能並不像人,但殺起人來毫不遜色。

對於自主武器,國際上存在很大的爭議。

美國陸軍訓練及戰略思想司令部長肯尼斯 · 羅斯列舉了自主武器的優勢:“機器不會勞累,它們不會閉眼,不需要在下雨時躲在樹下或和朋友交談…… 人類在 30 分鐘後注意力就會急劇下降,但機器從來不會感到害怕”。

從技術角度來說,有朝一日的確可能設計出一種自主武器系統,它能夠完全遵守攻擊中的區分、比例和預防原則。並且由於機器人不會受到情緒或個人利益的影響,自主武器在戰場上也許能夠比人類更道德和更審慎。

但顯然並不是所有人都認同其觀點。

2018 年 5 月,Google 員工得知公司正與美國國防部合作,決定向一個名為 Maven 計劃的軍事項目提供人工智能支持。為表抗議,近 4000 人聯署請願書,多人辭職,他們認為:這些致命的工作應該交由人類,而不是算法。此後不久 Google 發布了 AI 七原則,宣布放棄將 AI 技術用於致命性武器。

2018 年 7 月,特斯拉 CEO 埃隆 · 馬斯克領銜 2000 多名 AI 專家簽署了一項協議,該協議的核心目的只有一個:承諾永不發展致命的 AI 武器系統。

2019 年 3 月,聯合國發起了一項在法律層面 “禁止全自主武器” 的討論,但包括俄羅斯、美國、英國、澳大利亞、以色列在內的五國政府均反對這一提案。

致命的吸引力

儘管國際輿論禁止自主武器的聲音不絕於耳,但開發自主武器所帶來的好處卻讓個別國家難以割捨。

假如一支步槍,每秒鐘可以發射 10 發子彈。那麽它由人類控制和 AI 控制將完全不具備可比性,AI 一秒內可以朝 10 個不同的方向分別開一槍,並且精準命中。而人類……

對於 AI 來說,這不過是一場遊戲,而對於人類來說卻是流血犧牲。

想象一下有機器士兵參與的未來戰爭吧。

他們是訓練有素計程車兵,是最高效的殺人機器,是最負隅頑抗的敵人

他們沒有父母妻兒,沒有倫理觀念,他們無須動員,是最純粹的戰士

他們去中心化,任何單兵都能成為臨時的指揮,想要打倒他們必須全部消滅

當這樣一群殺人機器出現在科技水準沒那麽高的敵人面前,會發生什麽呢?未來可能不會再有槍戰、炮戰、白刃戰了。因為一切 “傳統熱武器” 在 AI 面前都不得不屈服。

AI 武器如此重要,沒有國家願意被落在後面,既然無法全面禁止,就只能選擇全面開發。

美國蘭德公司一份 2018 年的報告中舉了一個例子,認為 AI 技術的發展甚至可能動搖大國之間的核戰略平衡。

例如,一個國家要發展出定位和鎖定敵方所有核武發射器的能力,在技術上極具挑戰性,但這項能力卻能產生出巨大的戰略優勢。

這個例子中針對核武的實現難度可能較高,但如果將 “核武” 換成敵方防禦薄弱軍事設施或作戰部隊,這不僅是一個可行方案,而且是多少國家夢寐以求的能力。

不管如何,人工智能技術的發展早已引發了新一輪的軍備競賽,並且其成果將在下一次大範圍戰爭中展露。

最後,給大家看一段來自 Corridor 惡搞波士頓動力的視頻,能同人類並肩作戰的機器人,離我們或許並不遙遠。希望技術的進步能為人類帶來福祉,而不是毀滅。

-End-

參考:

https://www.icrc.org/zh/document/10-things-rules-of-war-Geneva-Conventions

http://www.cesi.cn/images/editor/20191101/20191101115151443.pdf

https://zh.wikipedia.org/wiki/機械倫理學

https://en.wikipedia.org/wiki/Lethal_autonomous_weapon

https://starsee.cn/

獲得更多的PTT最新消息
按讚加入粉絲團