每日最新頭條.有趣資訊

接管報告被神話了?到底什麽才是自動駕駛測試的衡量標準?

安全風險要持續降低

文 | 大壯旅

新智駕按:Uber測試車引發的那場致命事故已經過去一年多了,雖然 Elaine Herzberg 的死讓自動駕駛行業泛起了一波接一波的漣漪,但在日新月異的科技世界,這起事故早已成了舊聞,被大多數人逐漸淡忘了。

不過,還是有人一直惦記著這起悲劇的,卡耐基梅隆大學教授兼 Edge Case Research 聯合創始人 Phil Koopman 就是其中之一。在他看來,Herzberg 之死引領自己進入了新的研究領域。現在,Koopman 開始懷疑,各家自動駕駛公司在測試車輛時是否用到了高效的安全測試平台。

“我們真的從這次事故中學到了什麽正確經驗嗎?”Koopman 發問道。

在 SAE 世界體驗大會上,Koopman 聯合 Beth Osyk 發表了一篇名為《自動駕駛汽車公共道路測試安全論證》的論文,深入探討了“影響自動駕駛汽車公路測試安全性的因素。”Koopman 想通過這篇論文為業界提供新的養料,讓自己的思考作為自動駕駛路測項目穩固的起跑線,防止悲劇再次發生。

“沒有卵用”的反思

雖然事故發生後有大量文章著墨於 Uber 測試車到底犯了什麽錯,但通過研究 Koopman 卻指出,其中的一些反思對於提升自動駕駛汽車路測安全根本無濟於事。

比如:

1. 認為延遲自動駕駛汽車的部署是不負責任的行為,這波人堅信即使上路的是半吊子自動駕駛汽車,拯救的生命也比殺掉得多。

2. 決定這次事故中到底哪個人的錯誤更多(是被撞身亡的 Herzberg?還是 Uber 的安全駕駛員?)

3. 找到自動駕駛出問題的原因。

說起第三點,Koopman 更是直接表示:“誰不知道現在的自動駕駛汽車不成熟啊?要不我們還測試幹嘛!自動駕駛汽車出問題肯定是常事。”

搭建安全案例

“一直以來,計算機模擬、封閉道路測試和路測比率到底該如何分配是困擾整個自動駕駛行業的大問題。不過可以肯定的是,路測必不可少。”因此,Koopman 主張自動駕駛行業應該將精力集中在“如何把測試車威脅其它道路參與者的風險降到最低上”。

在論文中,他強調自動駕駛測試的操作員應該搭建一個安全案例,這個案例“必須結構清楚且有證據來論證”。

在 Koopman 看來,這樣的安全案例必須包括以下幾點:

1. 及時的操作員響應;

2. 適當的操作員減壓;

3. 合適的自動駕駛故障剖析。

Koopman 認為,自動駕駛公司采集路測車輛性能表現數據相當關鍵,因為人類保持精神高度集中也就 15-30 分鐘,而且掌管監督大權後,人很容易感覺無聊並開小差。

需要注意的是,在這裡采集數據並不困難,困難的是確定哪些才是正確數據。

被神化的“接管”概念

熟悉自動駕駛的你肯定聽過“接管”這個概念,它的誕生與加州政府的自動駕駛測試法規分不開。加州車管所(DMV)規定,凡是在它們地盤測試自動駕駛汽車的公司,都需要定期披露自己的測試裡程,以及安全駕駛員在危險情況下接管車輛控制權的頻率。

在 DMV 的詞典裡,所謂的“接管”指的是“當系統出現故障或車輛運行安全受到威脅時,安全駕駛員手動結束自動駕駛模式並接管車輛控制權”。

由於有官方月台,因此“接管”這個概念成了大家判斷自動駕駛技術成熟與否的衡量標準。

是不是覺得挺科學的?Koopman 卻認為這個概念被神化了。他指出,“接管率是一種錯誤的衡量標準”,因為它會在潛意識裡鼓勵操作員減少介入的次數,而這對測試安全有百害而無一利。

當下的現實是,由於自動駕駛行業起步較晚,因此測試車生成的數據還相對較少。Koopman 在論文中表示:“現在的自動駕駛測試衡量標準主要看某家公司的後勤實力,比如部署測試車的數量以及累積測試裡程,對這些數據進行量化後得到的就是接管報告。不過,接管報告並不能提升各家廠商的技術,它反而成了排名專用數據。顯然,這樣的概念無法夯實自動駕駛測試的安全基礎。”

Koopman 甚至認為,“在早期測試中,接管頻率越高反而越好,因為這樣你才能識別出自家系統的設計缺陷。”在他看來,每次的接管都能反映出機器的錯誤或人類的失察,無論接管的原因是大危機還是小 Bug。

換句話來說,你得事無巨細的掌握每一個故障的細節。“識別並修複所有引發安全問題的根本原因相當關鍵,隻解決表面症狀根本不起作用。”Koopman 在論文中寫道。

人的因素

最後,我們還得認真考慮人的因素。

Koopman 認為,這點可以繼續拿上面的“接管”概念舉例。假設一輛自動駕駛測試車行駛在路況一致的熟悉路線,為了降低接管率,安全駕駛員會不斷學習車輛的“習性”,不到迫不得已就不去碰方向盤,而這樣的操作方法必然會有風險。Koopman 指出,“安全駕駛員恐怕難以在大腦中建立正確的模型,預測自動駕駛系統的下一步動作。”

畢竟我們是人類,無法診斷出系統還沒發生的潛在故障,而這次沒惹出大禍的小 Bug,下次可能就會帶來大麻煩。

簡言之,人類無法完美執行監督自動駕駛系統這個工作。

可以肯定的是,即使是經過特訓且每天被灌輸要提高警惕的安全駕駛員也不可能 100% 完全投入。因此,各家公司要做的就是盡量減少人為因素造成的安全風險並完成可靠的安全論證。

回看 Uber 那場事故,你就會發現,公眾拋出的問題不應該是什麽時候 L4 自動駕駛能真正落地,而是這些自動駕駛公司到底有沒有自己的路測安全案例。

歡迎在今日頭條、天天快報、UC 頭條、一點資訊、新浪微博、搜狐號、網易號關注@新智駕。

獲得更多的PTT最新消息
按讚加入粉絲團