無人駕駛車的感測器如何進行布置?需要有哪些考慮?
&>&> 本問題已加入 人工智慧 · 自動駕駛 圓桌中,歡迎關注圓桌參與更多討論 &<&<
無人車感測器的布置,需要考慮到覆蓋範圍和冗餘性。覆蓋範圍:車體360度均需覆蓋,根據重要性,前方的探測距離要長(100m),後方的探測距離稍短(80m),左右側的探測距離最短(20m)。為了保證安全性,每塊區域需要兩個或兩個以上的感測器覆蓋,以便相互校驗,如下圖所示[1]:
參考文獻:
[1] J. Xue, D. Wang, S. Du, D. Cui, Y. Huang
and N. Zheng, 「A vision-centered multi-sensor fusing approach to
self-localization and obstacle perception for robotic cars,」 Frontier of Information Technology
Electronic Engineering(FITEE), 2017, 18(1), pp. 122-138,
10.1631/FITEE.1601873.
[2] H. Cho, Y. W. Seo, B. V. K. V. Kumar and
R. R. Rajkumar, "A multi-sensor fusion system for moving object detection
and tracking in urban driving environments," 2014 IEEE
International Conference on Robotics and Automation (ICRA), Hong Kong,
2014, pp. 1836-1843.
@王SIFT 課題組噶博士已經回答得比較全面了,我再做點補充。
通常我們討論的冗餘可以劃分為硬體冗餘,或軟體冗餘。噶博士所講的屬於硬體冗餘。但對於產品開發應用來說,軟體冗餘是一種成本可靠而實現冗餘的方式。
舉例而言,如車道線檢測。現階段大量的對車道線的檢測均是基於視覺(此處不討論基於激光的感測器),對它的冗餘則遵循3選2,或少數服從多數的選擇。
比如:同時在片上跑基於hough的(邊緣)、基於IPM的(局部高亮)、基於顏色分布的三種不同特徵提取方法(也包括參數化、半參數化等不同的模型擬合方法),在所有結果中3取2,也是實現冗餘配置的一種方式。
無人汽車感知系統的感測器配置的原則是要有冗餘度。一套系統不行了另外一套系統還可以管上。和adas廣泛採用毫米波雷達不同,城區內完全自動駕駛主要依靠激光雷達和攝像頭。常見激光雷達主要是ibeo lux四線和velodyne家的64,32,16。單純ibeo雷達,需要在車身四周配備四到六台,才能有環視效果,但往往還是會存在盲區。如果有一個velodyne64線的,就不需要再配置激光雷達了。Velodyne16線激光雷達垂直角解析度太大,在30米之外的效果還不如Ibeo lux的四線激光雷達,優勢只在於掃描範圍大。個人不喜歡。這款產品其實也沒有達到velodyne最初設計目的草草推出。攝像頭系統Mobileye是神器,缺點就是無法獲得原始數據。一般可以多攝像頭環繞車身,自己擼深度學習演算法,流行演算法的效果目前好像和mobileye還是有差距,但也十分優秀了。但不推薦立體攝像機,測距不如lidar,識別和單目也沒有區別。
哈哈,在某全球第一汽車零部件德企幹了一年雷達和camera的布置(軟體中布置),能拿到國內oem第一手的車型3D數模,我們有幾十頁的guideline 去規範產品的布置,具體不便說,但是布置位置分產品,車身五個毫米波雷達,分別裝在車的logo附近和四個角位置,前視camera裝在擋風玻璃後視鏡那,環視的話,後視鏡兩個,前logo附近,後面牌照附近。
具體哪種感測器?超聲波雷達?毫米波雷達? 激光雷達?每家供應商的產品的布置都有不同的要求啊
推薦閱讀:
※計算機人工智慧能代替人類藝術創造嗎?
※人工智慧最終會代替數學家或理論物理學家嗎?
※少數精英階層創造大量的人工智慧,絕大部分人將變成沒有任何經濟價值的無用階層 怎麼辦?
※使用深度學習(CNN)演算法進行圖像識別工作時,有哪些data augmentation 的奇技淫巧?
※如何評價文章《物理學家:用數學理論證明人工智慧無法超越人類智慧》?