每日最新頭條.有趣資訊

無人駕駛汽車遭遇AI路障

原作:Russell Brandom@theverge

李杉 編譯整理

量子位 出品 | 公眾號 QbitAI

如果你相信科技大佬的話,全自動駕駛汽車可能只需幾個月的時間就能實現。

2015年,伊隆·馬斯克(Elon Musk)預計特斯拉將在2018年發布全自動駕駛汽車。谷歌同樣如此。德爾福和MobileEye的四級系統目前定於2019年發布,Nutonomy也計劃於同一年在新加坡街頭部署數千輛無人駕駛計程車。通用汽車將在2019年投產全自動駕駛汽車,取消了方向盤,甚至不允許司機介入。

這些預測背後都是真金白銀的投入,他們都認為可以借助軟體追上這股浪潮。

從表面上看,全自動駕駛似乎比以往任何時候都更貼近現實。Waymo已經在亞利桑那州的公共路線上展開有限制的測試。特斯拉和許多其他模仿者已經開始銷售功能有限的半自動駕駛套件,但需要在意外情況下依靠司機進行乾預。雖然發生了一些事故,有的甚至是致命事故,但只要系統不斷改進,我們就會遵循這樣一條基本邏輯:人類距離完全無需人工乾預的無人駕駛汽車不會太遠。

然而,全自動駕駛汽車的夢想可能比我們想象的更加遙遠。

人工智能專家越來越擔心,我們可能需要等待幾年,甚至幾十年的時間,才能讓自動駕駛系統可靠地避免事故。隨著自我訓練的系統逐漸學會應對現實世界中的各種複雜狀況,像紐約大學的加裡·馬庫斯(Gary Marcus)這樣的專家正在面臨意料之中的痛苦校準,這種校準時期有時被稱為“人工智能寒冬”。由此造成的延遲可能會給那些依靠自動駕駛技術的公司帶來災難性後果,導致整整一代人都無法真正享受無人駕駛汽車帶來的便利。

很容易理解汽車廠商為什麽對無人駕駛技術持樂觀態度。在過去10年間,深度學習(一種使用分層機器學習算法從海量數據集中提取結構化資訊的方法)已經在人工智能和科技行業取得了幾乎不可思議的進步。它為谷歌搜索、Facebook News Feed資訊流、會話式語音速記以及獲得世界冠軍的圍棋系統提供技術支持。在互聯網之外,我們使用深度學習來檢測地震,預測心髒病,標記影片流中的可疑行為,以及無數其他原本不可能實現的創新。

但深度學習需要具備大量的訓練數據才能正常工作,幾乎包含算法可能遇到的每個場景。例如,谷歌圖片這樣的系統非常善於識別動物,只要有訓練數據可以向其展示每種動物的樣子即可。馬庫斯將這種任務描述為“插值”,對所有標記為“豹貓”的影像進行分析,並確定新圖片是否屬於該組。

工程師可以在數據來源和數據管道上采取一些有創造力的做法,但某個具體算法所能施展的範圍仍然面臨嚴格限制。同樣一個算法需要首先看到成千上萬的豹貓照片才能識別這種動物——即使它查看過家貓和美洲虎的照片,並且知道豹貓介於兩者之間,仍然無濟於事。後一種過程被稱為“概括”,它需要的是一套不同的技能。

長期以來,研究人員認為他們可以通過正確的算法提高概括能力,但最近的研究表明,傳統深度學習技術的概括能力並沒有我們想象的那麽強大。一項研究發現,傳統的深度學習系統甚至難以歸納一段影片不同幀上的內容,在背景發生細微變化時,同一個北極熊會被分別標記為狒狒、貓鼬或黃鼠狼。由於每個分類都結合了數百個因素,因此,即使是圖片發生的微小變化也可以完全改變系統的判斷,而其他研究人員也曾經在對抗數據集中利用這一缺陷。

馬庫斯指出,聊天機器人熱潮是通用人工智能最近遭遇挑戰的一個顯著例子。“我們在2015年對聊天機器人技術做出承諾,”他說,“但它們沒有實現進步,因為問題並不僅僅是收集數據。”

當你在網上與一個人交談時,你不僅僅想要他們重新討論之前的對話。你希望他們回應你所說的話,利用更廣泛的會話技巧來產生有針對性的回應。深度學習無法制作那種聊天機器人。一旦最初的熱潮消退,企業就對他們的聊天機器人項目失去了信心,很少有企業仍在積極開發這種技術。

這也導致特斯拉和其他無人駕駛汽車公司面臨一個可怕的問題:自動駕駛汽車能像圖片搜索、語音識別和其他人工智能領域的成功故事那樣越來越好嗎?或者,它們會遇到聊天機器人那樣的歸納問題嗎?無人駕駛汽車究竟是插值問題還是歸納問題?駕駛有多麽難以預測?

想在現在回答這個問題可能還有些為時尚早。“無人駕駛汽車就像一個我們不知道答案的科學實驗,”馬庫斯說。我們以前從未達到這種級別的自動駕駛,所以我們不知道它是什麽類型的任務。在某種程度上講,它的作用是識別熟悉的對象和遵循規則,現有技術應該可以完成任務。

但馬庫斯擔心,在事故多發的情況下駕駛可能比行業所認為的要複雜得多。“從出人意料的新事物出現的數量來看,這對於深度學習來說並不是一件好事。”

我們的實驗數據來自公共交通事故報告,每個報告都透露出一些不尋常的擔憂。2016年的一場致命車禍導致Model S全速撞向白色半掛車後部,原因是半掛車底盤過高,加之太陽光明亮的反射導致系統誤判。

3月份,當一名女士推著自行車橫穿馬路時被撞身亡,肇事車輛是一輛Uber無人駕駛汽車。根據美國國家運輸安全委員會的報告,Uber的軟體錯誤地將該女性識別為一個未知物體,然後識別為一輛車,最後識別為一輛自行車。在加州的一次交通事故中,Model X在發生事故之前轉向隔離墩並加速行駛,但事故原因目前仍未查明。

每次事故似乎都是一個邊緣案例,工程師無法提前做出預測。但幾乎所有的車禍都涉及某種不可預見的情況,如果沒有概括能力,自動駕駛汽車在面對每一個情景時都像是第一次遇到這種情況一樣。結果將會引發一連串的事故,但這些事故不會隨著時間的推移而減少,危險性也不會因此而降低。對於持懷疑態度的人來說,相關統計報告這種情況已經發生,技術已經到達平台期。

百度前高管、Drive.AI董事會成員吳恩達是無人駕駛行業最傑出的推動者之一,他認為問題不在於建立一個完美的駕駛系統,而在於訓練旁觀者預測無人駕駛汽車的行為。換句話說,我們可以為汽車提供安全的路線,而不是為路線提供安全的汽車。我問他是否認為現代系統能在從未見過的情況下識別彈簧單高蹺上的行人。“我認為許多無人駕駛汽車團隊可以識別人行橫道上使用彈簧單高蹺的行人。”吳恩達說。“話雖如此,在公路中間使用彈簧單高蹺是非常危險的。”

“我們應該與政府合作,要求人們採用合法行為,並體諒各種難處,而不是用人工智能來解決彈簧單高蹺問題,”他說。“安全不僅僅與人工智能技術的品質有關。”

深度學習不是唯一的人工智能技術,公司已經在探索替代方案。雖然技術在行業中受到嚴密保護(看看Waymo最近針對Uber發起的訴訟就知道了),但許多公司已經轉向基於規則的人工智能,這是一種比較老套的技術,可以讓工程師將特定的行為或邏輯硬編碼到無人駕駛系統中。它無法通過研究數據來決定自己的行為,但這恰恰是深度學習如此令人興奮的原因。

然而,這卻能幫助企業避開深度學習所面臨的一些局限性。但由於深度學習技術仍然深刻地影響了“感知”這項基本任務,因此很難判斷工程師會如何成功隔離潛在的錯誤。

Lyft董事會成員、風險投資家Ann Miura-Ko表示,她認為問題的一部分是對自動駕駛汽車本身的期望過高,將任何無法實現全自動駕駛的產品歸類為失敗。Miura-Ko說:“我認為所有這些細微的進步都是實現全自動駕駛的非凡特徵。”

不過,目前還不清楚自動駕駛汽車會在目前這種狀態保持多長時間。像特斯拉Autopilot這樣的半自動產品已經足夠智能,可以處理大多數情況,但如果發生難以預測的事情,仍然需要人為乾預。當出現問題時,很難判斷究竟應該歸咎於汽車還是司機。某些評論家認為,這種混合模式的安全性也有可能低於人類駕駛員,即使很難將錯誤完全歸咎於機器。

蘭德公司(Rand Corporation)的一項研究估計,自動駕駛汽車必須在沒有致命事故的情況下行駛2.75億英裡才能證明它們和人類駕駛員一樣安全。與特斯拉Autopilot相關的第一起致命事故大約發生在該項目推進了1.3億英裡的時候,遠遠低於上述標準。

但將深度學習融入汽車的識別和響應系統之後,改善事故率可能比表面看起來更加困難。“這不是一個容易被孤立出來的問題,”杜克大學教授瑪麗·卡明斯(Mary Cummings)特意提到是今年早些時候發生的Uber撞死行人事故。“感知決定周期通常是環環相扣的,就像那起行人死亡事故一樣。決策是基於模糊的感知做出的,而且因為通過傳感器得到了太多錯誤的警報,所以才關閉了緊急製動功能。”

此次事故導致Uber今年夏天暫停無人駕駛汽車計劃,對其他公司的計劃來說,這也成了一個不祥之兆。

在整個行業中,企業都在競相收集更多數據來解決問題,因為他們都認為,誰擁有的數據最多,誰就將開發最強大的系統。但早期企業看到數據問題時,馬庫斯卻看到了更難解決的問題。

“他們只是使用自己所擁有的技術,希望它能發揮作用,”馬庫斯說。“他們都依靠大數據,因為這是他們的拐杖,但沒有任何證據表明你的精確度能夠達到我們的要求。”

獲得更多的PTT最新消息
按讚加入粉絲團