聊聊無人駕駛中的計算機視覺技術|開篇

聊聊無人駕駛中的計算機視覺技術|開篇

來自專欄曉雷機器學習筆記29 人贊了文章

畢業之後我在一家新零售公司做人臉識別 業餘在這個專欄里發了一些目標檢測的系列文章。沒有想到竟有很多人關注。

去年我看了視覺求索的一篇文章,開始思考人工智慧的未來會如何發展。我自己感覺現階段單靠深度學習、單靠視覺是不夠的。必須利用更多的感測器信息。 比如SLAM利用圖片序列間的相關關係可以實現穩定的實時定位與建圖。雙目視覺可以利用左右圖片對兒的關係獲取深度信息。視覺與毫米波雷達的融合(一個提供語義一個提供深度)。視覺與IMU GPS等等。 最終我選擇從離開純深度學習的崗位,去了現在做無人駕駛的公司。

當前無人車的主流感測器還是非常昂貴的激光雷達。商業落地還是需要一些時間的。但是如果能夠以視覺技術為核心與GPS IMU 超聲波 毫米波雷達 等感測器做深度融合。打造一款可在受限場景下穩定運行的無人車是絕對可行的。

現在新開這個專欄就是想把這個方案所涉及的一些技術梳理一下。雖然有些技術我也還在學習中。不過動筆分享才能理解的更深刻一些。大家一起進步就好。(歡迎加入我的 知識星球 關注公眾號和 新的專欄,見文末)

系統聊聊無人駕駛中的計算機視覺技術。內容包括:

1. 目標檢測(detection)

- RCNN系列理論串講:如何一步步發展出來

- RCNN系列案例實踐:

- RCNN系列源碼解析:

- SSD源碼(c++)

- Faster-rcnn源碼(python)

- YOLO源碼

- Mask-RCNN源碼

2. 目標追蹤(tracking)

- 常用追蹤方法

- 與檢測的結合

3. 定位與建圖(SLAM)

- SLAM理論:

- SLAM實踐:

- SLAM源碼解析:orb-slam2源碼等

4. SLAM+Detection+Tracking:

- 聯合優化的思路

5. 與其它感測器融合

- 視覺與毫米波雷達

- 視覺與imu(VIO)GPS

6. 工程實踐與深度學習框架源碼解讀

- cmake

- caffe源碼

- tensorflow內核源碼

# 公眾號:可以第一時間接收文章推送

計算機視覺與無人駕駛

公眾號ID:cv-self-driving

weixin.qq.com/r/xi87I2D (二維碼自動識別)

# 知乎專欄

計算機視覺與無人駕駛

zhuanlan.zhihu.com/qu-a

推薦閱讀:

巨頭都在玩的無人配送,與其替代騎手不如做移動小倉庫?
外刊 | 無人駕駛汽車肇事
軟銀押注通用無人車落地 22.5億美元占股16.9%
自動駕駛時代車載娛樂的未來發展分析
渣土車這塊城市膏藥,什麼時候能撕下來?

TAG:深度學習DeepLearning | 計算機視覺 | 無人駕駛車 |