每日最新頭條.有趣資訊

百度Apollo L4級自動駕駛純視覺解決方案來了

Apollo Lite城市道路L4級視覺感知解決方案,能夠支持對10路攝影頭、200幀/秒數據量的並行處理,單視覺鏈路最高丟幀率能夠控制在5‰以下,實現全方位360°實時環境感知,前向障礙物的穩定檢測視距達到240米。

文丨AutoR智駕 諾一

Mobileye有真正的競爭對手了。

在美國長灘舉辦的全球計算機視覺及模式識別領域頂級學術會議CVPR 2019(Conference on Computer Vision and Pattern Recognition)上百度Apollo公開了環視視覺解決方案百度Apollo Lite。

這是國內唯一的城市自動駕駛純視覺城市道路閉環解決方案。

據悉,Apollo Lite城市道路L4級視覺感知解決方案,能夠支持對10路攝影頭、200幀/秒數據量的並行處理,單視覺鏈路最高丟幀率能夠控制在5‰以下,實現全方位360°實時環境感知,前向障礙物的穩定檢測視距達到240米。

Apollo技術委員會主席王亮介紹稱,“經過前期的技術研發投入和2019年上半年的路測迭代,依靠這套10相機的感知系統,百度無人車已經可以在城市道路上實現不依賴高線數旋轉式雷射雷達的端到端閉環自動駕駛。”

據了解,Apollo Lite已經在北京稻香湖等多地多路段落地測試。在路測過程中,測試車輛數目、累計測試裡程和車輛在城市道路上的閉環自動駕駛表現優異,可與全球最大的ADAS(高級輔助駕駛技術)供應商Mobileye提供的純視覺解決方案相媲美。

相比旋轉式雷射雷達感知方案,視覺感知方案價格低且便於獲得,這套低成本近車規級環視感知方案也能夠降級支持ADAS輔助駕駛應用,創造更多有價值的應用場景,將ADAS產品的能力提升到一個新的高度。

可以認為,這套方案具備高性價優勢。

攝影頭是相對成熟的傳感器,除具備輕巧低成本和符合車規的優勢外,高分辨率高幀率(成像頻率)的成像技術發展趨勢意味著圖像內蘊含的環境信息更豐富,同時視頻數據也和人眼感知的真實世界最為相似,但和三維點雲數據相比,二維圖像中的信息更難挖掘,需要設計更強大的算法、大量數據的積累和更長期的研發投入。

王亮表示,“百度Apollo始終堅持多傳感器融合的技術路線。在L4級自動駕駛傳感器選型上,雷射雷達和攝影頭不是排它的的也不是單純的從屬和互補關係。”

不過,從安全性考慮,二者具備相同的重要性和不可替代性,缺一不可。

現今很多傳感器融合的方案設計較為複雜,技術人員往往從快速解決問題的角度出發設計算法,這個過程中難免避重就輕的利用異構數據各自的優勢進行缺陷互補從而繞過困難的問題。

基於這種思路設計的多傳感器融合方案雖然能夠在短期規避單傳感器方案難以解決的問題,長遠看,數據和策略間深度耦合的設計不利於為環境感知系統提供真正意義上的冗余(true redundancy)。

傳感器融合意味著多套能夠獨立支撐全自動駕駛的感知系統強強聯手,獨立工作相互校驗,最大概率的保證感知結果的準確性和完備性。

王亮強調,百度下決心投入資源研發純視覺感知解決方案並不意味著放棄現有基於雷射雷達的技術路線,而是在技術實踐過程中充分意識到無人駕駛系統true redundancy的必要性,決定通過壓強環視視覺技術來夯實多傳感器融合感知框架。

在傳統雷射雷達為主,視覺為輔的傳統融合策略中,視覺感知自身的問題和缺陷在雷達感知的掩蓋下暴露不夠充分。

今天通過Apollo Lite打磨迭代的純視覺技術正在持續反哺百度堅持的多傳感器融合解決方案,提升無人駕駛系統的魯棒性和安全性。

技術的發展無疑是自動駕駛產業的必備要素,而在技術進步的同時,為企業和開發者打造低價、易獲取的解決方案,更是推動產業發展的重要一環。

不過,相比較百度多種方案齊頭並進的方式,特斯拉是一個反列,4月23日,特斯拉發布了“全自駕計算機”(full self-driving computer),也就是: Autopilot 硬體 3.0 。同時,在會上馬斯克馬斯克在會上稱:“只有傻瓜才會用雷射雷達”。

而曾經也是以純視覺為主的以色列公司Mobileye也開始做雷達攝影頭融合方案,從純視覺到融合,再從融合到純視覺,自動駕駛解決方案如何正確應對不同場景依舊還處在探索階段。

CVPR期間,百度Apollo還公布了ApolloScape最新進展,目前ApolloScape已經發布了五個公開數據集包括場景解析,細粒度車道線,定位,三維車輛擬合和稠密軌跡。

據悉,ApolloScape中的場景解析(scene parsing)數據集包括了14.7萬幀的具備逐像素語義標注的圖像,相對於包括Waymo在內的僅具備矩形框標注的數據集,像素級標注提供了更為細致的而且不受物體間的遮擋影響的場景信息,旨在推動更為精準的視頻場景語義理解技術。

除了二維視頻圖像,其每幀相關的三維點雲也被逐點標注了語義信息。另外,圖像的逐像素標注的時間工作量超過了矩形框標注的工作量十倍以上。

ApolloScape數據集中道路線標注和深度圖像的示例

道路線是一項基礎的路面元素, ApolloScape 車道線數據集提供了28類不同的道路線分類的逐像素級別和以及三維逐點級別的數據集,這是目前所有公開數據集都不具備的標注信息。

無人車需要精準的定位系統用以獲取一系列信息,例如自身的位置,前方的情況,以及行駛區。

其中定位精度一般需要控制在10厘米以內以避免出現碰撞和車道偏離的情況。ApolloScape自定位(self-localization)數據集提供了近30萬張帶有高精GPU/IMU信息的覆蓋近28公里的圖像。

此外,如何利用圖像快速感知周圍車輛的三維位姿對於自動駕駛也至關重要。

為了推進此問題的研究, 百度推出ApolloScapeCar3D數據集,此數據集采集於中國的不同的城市,包含5277多幅真實駕駛場景、6萬多車輛的三維標注數據。

除了車輛的三維位姿之外,百度還同時開放了真實三維車模型,66個三維/二維車輛關鍵點數據。接下來,我們或進一步開放部件級別的、稠密的三維車輛標注。

ApolloScape的物體軌跡跟蹤數據集提供了圖像和點雲上的物體運動軌跡,其涵蓋了不同的光照條件以及大量的車/人/騎行混雜的交通流,旨在推動物體跟蹤以及運動行為預測技術。軌跡數據全長到2.5個小時,這個比現有的最大的軌跡數據集(NGSIM)大了三倍。

百度官方介紹稱,自2018年3月的發布以來,ApolloScape數據集已經被全球範圍內下載上萬次。

智駕精選

獲得更多的PTT最新消息
按讚加入粉絲團