不用結構光,現在的雙目立體視覺有成熟的產品嗎?
01-09
現在的熱門的kinect leapmotion都結合了光源。
由於工作與科研的關係,接觸了一些3D sensor ,雙目的話,首先,灰點公司的大黃蜂,之前實驗室用的bumblebee2,現在應該出最新的了,直接可以輸出深度圖的那種,工業相機很穩定,在實驗室自己製作的小車(跑起來比較顛簸)成像依舊沒有問題(不糊),就是比較貴,適合科研。。。還有個缺點就是1394的介面不好,需要一個轉接卡,才能在PC端使用,嵌入式設備上使用比較困難。然後就是Stereolabs推出的ZED立體相機,可以輸出實時的深度圖,USB的介面,使用比較方便,深度圖的計算是使用本地的GPU計算的,沒有真正使用過只是試了下,在室內感覺深度圖效果還不錯。。。。還有就是一些小公司的啦,比如,人加智能的movesense,也是直接輸出深度圖的雙目相機,本地使用fpga計算的,USB的介面,使用過一段時間,做避障之類的基本夠用啦,不過樓主如果想用純雙目做交互類的話,還是有一定困難的吧?添加結構光會好一些吧?室外的話接觸過的就是以上三款啦,哈哈哈~~~~感覺由於大家需求不一樣,很多公司都在自己做符合自己需求的雙目相機吧?!?
有ZED stereo camera,深度信息沒測,直接拿來當vr的雙目感測器了。
感覺目前純靠雙目視覺進行測距的話,一個是匹配演算法的準確性和實時性沒法同時滿足(當然硬體強大隨你便),二是基線長度實在沒法做得太大(和儀器尺寸以及相機視場範圍、解析度都有關係),所以說確實我還不如 @慧慧,我是除了幾代的bumblebee就沒見過其它系統,在和巴斯勒的技術人員溝通的時候他們也說雙目視覺有局限,用得確實不廣,不知道題主的這個要求是為了滿足什麼。看好多的科研類文章的雙目視覺演算法直接使用兩台單反做實驗……哎也是土豪(沒見過世面……),感覺立體視覺的發展趨勢絕對不會是單一感測方式,恩精度和適應性都實在是有限啊有限
可以參考以下幾種雙目相機:
1.Bumblebee雙目相機,如樓上所述;
2.人加Human的雙目相機,fpga部分實現了雙目矯正和匹配演算法,幀率很高,體積小巧。適合在無人機使用;
3.瀋陽上博智像有限公司的雙目產品,也是採用了fpga進行演算法加速;
4.大疆的Guidance,採用了5對雙目,提供sdk,搭配大疆的M100飛行平台使用。可以基於這套平台和Guidance實現避障、SLAM等應用;
5.Kinect2,基於tof的感測器而非結構光。windows,linux支持都很好
我這個如何?雙目1080p實時處理. 後處理就是簡單的中值濾波,基本純靠塊匹配。 在TX1,TX1平台可以做到實時處理(30fps以上)。結構光和TOF在室外基本無解;激光雷達主要問題是體積和價格。 現在短期看,室外只有雙目才是可行的。 至於自動駕駛的避障,這個一定要配合毫米波雷達和超聲波雷達。 視覺都是依賴光照情況,室外光照複雜,所以如果用於自動駕駛,雙目必須搭配雷達。
vi3dim 你可以看一下 單目不用結構光都能還原
大疆精靈4pro
推薦閱讀:
※為什麼很少人用FFT加速CNN卷積層的運算?
※如何評價coco2017的結果和此類比賽的前景?
※在曠視科技工作是怎樣一種體驗?
※機器視覺方面有哪些好的開發平台?各有什麼特點?
※近期無監督或半監督行人重識別有什麼進展?
TAG:Kinect | 計算機視覺 | LeapMotion |