聊聊無人駕駛中的計算機視覺技術|開篇
來自專欄曉雷機器學習筆記29 人贊了文章
畢業之後我在一家新零售公司做人臉識別 業餘在這個專欄里發了一些目標檢測的系列文章。沒有想到竟有很多人關注。
去年我看了視覺求索的一篇文章,開始思考人工智慧的未來會如何發展。我自己感覺現階段單靠深度學習、單靠視覺是不夠的。必須利用更多的感測器信息。 比如SLAM利用圖片序列間的相關關係可以實現穩定的實時定位與建圖。雙目視覺可以利用左右圖片對兒的關係獲取深度信息。視覺與毫米波雷達的融合(一個提供語義一個提供深度)。視覺與IMU GPS等等。 最終我選擇從離開純深度學習的崗位,去了現在做無人駕駛的公司。
當前無人車的主流感測器還是非常昂貴的激光雷達。商業落地還是需要一些時間的。但是如果能夠以視覺技術為核心與GPS IMU 超聲波 毫米波雷達 等感測器做深度融合。打造一款可在受限場景下穩定運行的無人車是絕對可行的。
現在新開這個專欄就是想把這個方案所涉及的一些技術梳理一下。雖然有些技術我也還在學習中。不過動筆分享才能理解的更深刻一些。大家一起進步就好。(歡迎加入我的 知識星球 關注公眾號和 新的專欄,見文末)
系統聊聊無人駕駛中的計算機視覺技術。內容包括:
1. 目標檢測(detection)
- RCNN系列理論串講:如何一步步發展出來- RCNN系列案例實踐: - RCNN系列源碼解析: - SSD源碼(c++) - Faster-rcnn源碼(python) - YOLO源碼 - Mask-RCNN源碼2. 目標追蹤(tracking)
- 常用追蹤方法- 與檢測的結合3. 定位與建圖(SLAM)- SLAM理論:- SLAM實踐:- SLAM源碼解析:orb-slam2源碼等4. SLAM+Detection+Tracking:- 聯合優化的思路
5. 與其它感測器融合- 視覺與毫米波雷達- 視覺與imu(VIO)GPS6. 工程實踐與深度學習框架源碼解讀- cmake- caffe源碼- tensorflow內核源碼
# 公眾號:可以第一時間接收文章推送
計算機視覺與無人駕駛
公眾號ID:cv-self-drivinghttp://weixin.qq.com/r/xi87I2DEUD0vrSRA93rU (二維碼自動識別)
# 知乎專欄計算機視覺與無人駕駛https://zhuanlan.zhihu.com/qu-ai
推薦閱讀:
※巨頭都在玩的無人配送,與其替代騎手不如做移動小倉庫?
※外刊 | 無人駕駛汽車肇事
※軟銀押注通用無人車落地 22.5億美元占股16.9%
※自動駕駛時代車載娛樂的未來發展分析
※渣土車這塊城市膏藥,什麼時候能撕下來?
TAG:深度學習DeepLearning | 計算機視覺 | 無人駕駛車 |