每日最新頭條.有趣資訊

從此雷射雷達和攝影頭 就是一個東西了?

車栗子 發自 凹非寺

量子位 出品 | 公眾號 QbitAI

最近幾年,放在攝影頭上的深度學習研究,發展很蓬勃。相比之下,雷射雷達(LiDAR) 身上的學術進展並不太多。

可是,雷射雷達采集的數據,有很多優點。比如太空資訊豐富,比如光照不足也不影響感知,等等。

當然,也有缺點。雷射雷達數據,缺乏RGB影像的原始分辨率、以及高效的陣列結構(Array Structure) 。並且,3D點雲很難在神經網絡裡編碼

要是能把雷射雷達和攝影頭,變成一台設備就好了。

如何“淘汰”攝影頭?

雷射雷達廠商Ouster,是領域內獨角獸Quanergy的前聯合創始人Angus Pacala,出走之後建立的新公司。

Ouster聯合創始人兼CEO

去年11月,公司推出了OS-1雷射雷達,想要從這裡開始,打破雷射雷達與攝影頭的界限

中心思想是,只要雷射雷達的數據足夠好,就算專為處理RGB影像的而生的深度學習算法,也可以拿來用。

Pacala說,現在OS-1可以實時輸出固定分辨率的深度影像(Depth Image) ,信號影像(Signal Image) 以及環境影像(Ambient Image) 。

這些任務都不需要攝影頭的參與。

高速相對運動中,容易產生果凍效應

數據層與數據層之間,是太空相關的。拍攝高速運動的物體,也不容易產生果凍效應(Shutter Effects) 。

另外,OS-1的光圈,比大多數單反相機的光圈要大,適合光照不足的場景。

團隊還開發了光敏度很低的光子計數ASIC,在低光照的情況下采集環境影像。

自上而下:環境、強度、範圍影像,以及點雲

設備可以在近紅外波段捕捉信號環境資訊,獲得的數據,跟普通可見光影像差不太多。

這樣,分析RGB影像用的算法,也可以處理雷射雷達的數據。

小夥伴們還可以用Ouster (剛剛進行了韌體更新) 的開源驅動,把數據轉換成360度的全景動態:

動圖有壓縮

傳感器輸出的數據,不需要預處理,就是這樣的效果。

數據跑一跑

就像剛才說的,只要數據夠好,就可以用那些為攝影頭開發的算法,來做深度學習。

深度強度環境資訊,編碼成向量。就像RGB影像可以編碼成紅綠藍通道一樣。

所以,OS-1的數據品質究竟怎麽樣?

數據跑得很開心

Pacala說,他們用過的算法,和雷射雷達的合作都很愉快。

舉個栗子,他們訓練了一個像素語義分類器,來分辨可以行駛的路線,其他汽車,行人,以及自行車。

這裡是舊金山,在英偉達GTX 1060上運行分類器,實時生成了這樣的**語義分割**效果:

語義分割:路是路車是車

這是團隊做的第一個實現。

數據是逐像素的數據,所以能夠無縫將2D翻譯成3D幀,來做邊框估計 (Bounding Box Estimation) 這類實時處理。

除此之外,團隊還把深度、信號和周圍環境分開單獨放進神經網絡裡去跑。

一個栗子,用了SuperPoint項目裡預訓練的神經網絡,來跑強度深度影像。

網絡是在RGB影像上訓練的,從來沒接觸過雷射雷達/深度數據。初次見面,卻一見如故:

還是語義分割,只是單獨跑了強度 (上) 和深度 (下) 數據

Pacala說,雷射雷達測距,在隧道、高速公路這樣的規則幾何環境裡,可能不是很開心;而視覺測距,會在缺乏**質地**變化、缺乏**光照**的情況下,無所適從。

OS-1用多模態的方法,把兩者結合起來,療效就不一樣。

1 + 1 > 2,這大概就是Ouster想要表達的意思。

還不算真正上路

2015年年初,Angus Pacala離開Quanergy。

同年,Ouster在矽谷成立。

傲視群雄

2017年12月,公司宣布完成2,700萬美元A輪融資,並同時推出了售價3,500美元的OS-1。

腳步不算快,但也算找到了自己要走的路。

影像語義分割算法,初步肯定了他們的成果。

不過,融合了攝影頭屬性的雷射雷達,搭載到自動駕駛車上會有怎樣的表現,還是未知。

Medium原文傳送門:

https://medium.com/ouster/the-camera-is-in-the-lidar-6fcf77e7dfa6

GitHub傳送門:

https://github.com/ouster-LIDAR

獲得更多的PTT最新消息
按讚加入粉絲團