無人車為什麼一定要用激光雷達做,雙目視覺難道不行嗎?

我再想是不是雙目視覺的精度不夠,但是人利用雙眼不是也可以很好的完成相關任務。


首先,雙目和LiDAR並不應該是矛盾的兩個技術。而是各有優勢和劣勢。簡單來說,LiDAR精度高,但點稀疏,價格貴。難點在於沒有視覺特徵使得tracking和recognition等任務不如雙目中直接。雙目優勢在於有視覺特徵,使得和別的vision演算法結合很容易,但精度比LiDAR低(不過可以滿足對自動駕駛需求),對硬體穩定性要求高(要保證兩個攝像頭之間的相對穩定,這可能是雙目投入實際應用中最大的障礙)。

需要糾正的幾個觀點是:

1. 實測中,雙目和LiDAR都會存在失效的情況。所以不存在LiDAR一定比雙目靠譜很多的結論。

2. Lidar感知距離遠沒有宣稱的那麼遠,例如64線Velodyne,因為點稀疏,對於演算法而言有效感知距離不會超過100米。這對於我們高速卡車場景,遠遠不夠。當然最近有一些宣稱可以到達200米的產品,我們還是很抱有期待的。

=======下面是安利的分割線=======

所以呢,千萬不要被XX限制了自己的想像力。為了解決以上問題,我司給力的硬體同事創造性地使用特殊的生產工藝,結合長焦攝像頭打造了一款可以穩定完成200米內測距的原型硬體。在加上背後的一流演算法,可以滿足5%誤差以內的測距需求。再結合上其他的單目測距手段,是可以滿足整個系統的需求。(廣告時間:我司硬體部門常年開放各種職位,有興趣來一起創新,用創造性思維打造下一代自動駕駛硬體原型的同學,歡迎私信戳我~)

當然,最好的是固態LiDAR早日量產,解決機械旋轉LiDAR價格貴,在惡劣工況中穩定性差的問題,我相信每家公司都會願意把它加入到自家的感測器組合里一起做fusion的~


視覺可以,而且本來也應該是未來的發展方向。而激光雷達的若干缺點使得它很難成為主感測器。

在自動駕駛汽車上使用激光雷達始於 Sebastian Thrun ,此人在十幾年前DARPA的自動駕駛挑戰賽中一路高歌猛進的拿冠軍。其早期建立優勢就是開始於激光雷達。具體的講是基於機械掃描激光雷達,製造商為velodyne。

後來Sebastian Thrun的團隊被Google收購,開發了Google自動駕駛汽車,其思路也是基於機械掃描激光雷達。

Sebastian Thrun在那個時代使用激光雷達的原因也相對好理解,畢竟十幾年前的深度學習尚不成熟,導致靠人類進行特徵工程做的計算機視覺,在效果上提升有限。計算能力上,CUDA尚未發布,也沒有足夠的計算能力。而彼時的激光雷達輸出的圖像直接就是深度圖,無需複雜計算就可以用於避障和路線規劃。于是之後若干團隊做的自動駕駛汽車大多是基於激光雷達的。

但是激光雷達也有一些先天的缺點,導致了並不是一個做自動駕駛很合適的方案(如下基於velodyne 64線激光雷達的數據):

  1. 探測距離:當前Velodyne的64線激光雷達有效探測距離為120米,360度,在車載計算機反應速度足夠快的情況下,預留的剎車反映時延也還是太小;相對來說,人的眼睛發現幾百米遠的車道上威脅是很容易的
  2. 探測精度:激光雷達的工作方式也是離散的,記得在120米距離上垂直和水平解析度已經是0.3-0.5米的級別,意味著在這個距離上站著的一個人是有可能被激光雷達忽視的,只有到了更近的距離,才能被掃描發現
  3. 掃描頻率:Velodyne 64的最高掃描頻率只能達到15Hz,相當於視頻幀率的15fps,而且因為是360掃描,加上數據緩存和回傳的時間,這個時延是很恐怖的,根本無法讓自動駕駛汽車提高行駛速度,在120公里時速下,單單1幀掃描的時間就可以讓車輛行駛出去2.222米;而同期的工業攝像頭,被用在汽車上的通常是120Hz起的,上1000Hz的攝像頭也不難買到
  4. 鏡面黑洞:激光雷達依靠反射激光的時延來探測每個點的距離,但如果掃描的物體反射能力較好且不是正對激光雷達,就會導致此處探測不到反射的激光,對激光雷達而言,這就是個距離無限遠的黑洞;同時對雪、霧天氣的激光反射而言,返回信號就是一大堆噪點
  5. 壽命:畢竟是整天露在外面不斷旋轉的光學設備,這壽命不難想像
  6. 變態的價格:一年多前我所接觸的Velodyne 64,出廠價格7萬美元,到中國是10萬美元左右

這些問題的優先順序是不一樣的,最重要的鏡面黑洞問題,導致了激光雷達幾乎不可能作為主感測器應用在自動駕駛汽車上。所以大家可以仔細想想,至今所有使用激光雷達的自動駕駛原型車的測試環境都是選擇在全年天氣晴朗,沒有霧,基本不下雨雪的地方。特別是雨,本身就會干擾激光雷達的回波不說,路上的積水坑對激光雷達也是鏡面,也會被認為是個無限遠的黑洞。試問對雨雪天氣比人還敏感的自動駕駛汽車,在應用時會帶來多大的困擾?

再細談價格,很多開發自動駕駛技術的公司,都在用的三大件是:激光雷達、毫米波雷達、差分GPS。這三大價的總價就過100萬人民幣了。問題是就靠這價格想作出自動駕駛汽車根本不現實,毫米波雷達在過去幾年降價較快,量產貨用於自動巡航和防碰撞的可以降低到1萬人民幣以內了。差分GPS原則上可以用普通GPS湊合。但激光雷達真是一直都雷打不動的價格,成了自動駕駛汽車的重要價格門檻。

為了解決機械掃描激光雷達的若干問題,比如價格昂貴、機械掃描壽命等問題,我所知也有數十甚至可能有上百家公司在其他的替代品。比如高端的固態激光雷達,利用多種原理來讓發射激光時,就能實現可控的偏轉。但直徑此類產品還沒見實際部署到各個自動駕駛公司的例子。可見也是一塊硬骨頭。

反之還有些關鍵問題也不是能解決的,比如探測距離和鏡面黑洞問題。提高發射功率可以提高一點此類性能,但是激光雷達畢竟是平著掃描周圍空間的,必須要確保不能傷害到附近人的眼睛,所以發射功率上就被限制死了。想要提高探測反射激光的靈敏度,則會受到地面其他物體本身發射的紅外光,以及空氣散射的干擾。Voledyne在過去幾十年間做了不少軍用的激光雷達,用在軍用飛機上來掃描地面的,這類激光雷達的發射功率可以不受限制,而且也不是平著掃描,所以取得了較好的效果,但畢竟沒法直接轉換到車輛上使用。

再說說視覺。靠視覺做自動駕駛不一定非要用雙目視覺的。以色列的mobileeye就是基於單攝像頭,以及機器學習來實現了判斷障礙物距離,可以認為是Structure From Motion+機器學習。雙目在應用中也有不少難處,但總的來說,探測距離、探測精度、掃描頻率、鏡面黑洞、壽命和價格,這6個重要的方面可以說是完勝激光雷達。在一些自動駕駛汽車公司里使用的USB3.0工業攝像頭,實現1080p甚至4k解析度,120fps的也不難,也就小几千元的級別。可以安裝在車內,無需像激光雷達那樣暴露在車外,沒有移動部件。即便是裝兩個也沒多少錢。

雙目視覺的難點在與匹配計算,所以在嘗試用雙目視覺的公司,往往都少不了開發高性能的雙目合成。演算法上可以優化的空間已經很小了,所以在GPU、FPGA、ASIC的角度去實現雙目合成則成了重點。

雙目視覺的baseline決定了可以在多遠的距離內判斷物體的深度數據。通常人眼的baseline是8cm左右,依靠雙目有效判斷的深度距離是2米左右。而在汽車上,前擋的距離在1.5米左右,這就使得可以有效利用的baseline大了很多。同時人類和CV也可以靠Structure From Motion來判斷距離,這才是判斷更遠距離深度的重要手段。依靠深度學習,也能依靠標註常見物體的尺寸和攝像頭的內參數矩陣,來判斷物體的距離。

這裡最關鍵的兩點,一是攝像頭有大量可選,二是攝像頭足夠便宜。這兩者決定了,在自動駕駛汽車上,基於攝像頭的計算機視覺是更有前途的方案。

利益相關:前DeepGlint工程師,參與過自動駕駛項目,後來項目組獨立出去成立了uisee。現在從事工作與自動駕駛無關,如上內容沒有泄密。

如下視頻是我還在做自動駕駛時,由我改裝的遙控車,一輛6人座高爾夫球車:


當眼面一片黑或是一片雪白,人的雙眼無法判斷距離,也得不到任何深度信息。同樣的,雙目相機也像人眼一樣提取不到特徵,也計算不出深度信息。這是在空間解析幾何原理上無解的。所以安全形度來看,融合技術才有未來。


說一點我的想法,其他回答中那些缺點,比如雙目fov小,人眼其實也一樣啊,人是怎麼解決的呢?分時啊,一個方向看一眼可以換一個地方看。至於成本不是說360度掃描雷達很貴嗎?如果雙目精度達標,增加的計算力成本應該比雷達便宜很多吧。

所以總的來說原因還是目前雙目的技術不夠,演算法還有待改進。另外一個原因就是雷達已經研發很多年了,說砍就砍也是有難度的。


雙目非常的雞肋。baseline做不到太寬,FOV寬一些檢測距離一般只有三十來米,提高檢測距離吧FOV又很小。攝像頭容易受陽光直射和其它強光影響很不穩定,還要因為增加一個攝像頭以及更強大的計算晶元增加成本。十分的不划算。所以目前主流廠商都是單目?radar,等到lidar便宜且穩定到商用的時候,雙目會更沒市場。按照17年的發展速度,不遠了。因此強烈看好lidar。

雙目在室內有價值,室外在無人車上還是算了吧


並沒有一定非用LiDAR不可,以圖森為代表的公司,還有Tesla的Autopilot就沒上LiDAR,當然再往上一層的自動駕駛會不會上那可說不準。

LiDAR和Camera最本質的一個區別,是探測邏輯的根本不同,前者是通過激光脈衝TOF,先來感知距離位置的相互關係,再進行標註分類;後者是先拍攝下非結構化數據,再進行標註分類,然後再判斷距離位置的相互關係和是否構成障礙。基本的探測邏輯不同在自動駕駛上面給到的安全冗餘差別非常之大。

另外關於成本問題,在MEMS和OPA等LiDAR脫離實驗室之後,市場需求反向影響量產成本之下,量產成本降低到可接受範圍是可以預期的事。而處理非結構化數據所需要的符合車規級標準的高性能計算平台,成本降下來也是可預期的事情。兩種方案基本上在未來成本應該不能構成特別明顯的差異化。

所以歸根結底,核心的差異化還是在於技術方案出發點的邏輯的不同,所導致的安全冗餘性能的不同,大家的上限可能都可以去到很高,但下限兜底LiDAR應該會比Camera來得更可靠。


雙目視覺確實可以來拿到深度 不過問題也是存在的。

  1. 精度問題。現在的雙目視覺的精度遠沒有激光雷達高。車輛上的前視攝像頭看到的其實跟我們開車很像,然後地面上邊的關鍵點並不多,rectify之後的圖像去做匹配就不太准,所以在類似場景下的disparity還是很糟糕的。
  2. 穩定性問題。視覺方式現在的方法並不能達到很高的準確率(其實99.99%在自動駕駛上都不算高),如果發生誤判,後果還是很嚴重的。
  3. 難度問題。激光雷達方案基本上不需要做什麼就能拿到較為可信的3d點雲;雙目視覺基本上要花很大的力氣才能搞一個能做demo的深度圖。我猜這也是大量廠商優先選擇激光雷達的方案的原因。
  4. 視野問題。雙目系統基本上能覆蓋對準的方向60度的視野就很不錯了,現在的激光雷達基本上都是360度。然後雙目系統基本上很近的地方也看不到,激光雷達也存在「燈下黑」的現象(所以需要毫米波雷達補足中近處的視野)
  5. 歷史的進程。現在有很多創業的廠商在致力於激光雷達的研發。激光雷達裡邊並沒有稀有元素或者受控制的技術,相信價格很快就會跌下來。

個人覺得視覺應該是激光雷達方案的一個補充;一個激光雷達就能實現開車過程中90%(不嚴格)的問題了。就醬。


雙目視覺計算得到的視差圖:

輸入:KITTI數據集--雙目視覺

結果:KITTI雙目--目前冠軍演算法PMSNet測試結果

Error

ion Benchmark Suite

接下來是激光雷達獲取的3D點雲數據:

視頻來源:百度Apollo激光雷達數據Demo

以上是一個直觀的印象:激光雷達獲取的點雲數據較稀疏,解析度低於雙目視覺。

但激光雷達獲取的3D點雲數據具有較高的精度,同時對車載硬體計算能力的苛刻程度也大不相同,上述PMSNet計算雙目視差圖一幀耗時0.41s,暫時還停留在研究的階段。

雖然激光雷達具有精度高 、計算量相對較小的優點,但仍沒大量出現在量產車中。幾個現狀:

1. 現在落地的智能駕駛並不是都採用了激光雷達的方案,相反,現在真正量產上路的智能駕駛的硬體很多是以視覺+毫米波雷達+超聲波雷達為主的方案,主要是考慮到量產的成本以及技術的成熟性,典型代表如特斯拉Autopilot,以及國內上年底剛發布的ES8

特斯拉智能駕駛的硬體配置方案

來源:Tesla』s 360 Vision: The Future is Here -Prescouter - Custom Intelligence, On-Demand

2. 量產/即將量產的車即使使用激光雷達作為感知手段,也主要用的低線束激光雷達,如發布會宣稱搭載L3級別自動駕駛功能的奧迪A8,可以說是第一款搭載了激光雷達的輛車車型。A8採用了低線束(8線)的LiDAR,來自IBEO和法雷奧合作量產的Scala產品,作為攝像頭+毫米波雷達的補充手段,以應對全天候、晝夜環境下(+紅外感測器)的環境感知。

奧迪A8的感測器方案

來源:除了是全球首款L3自動駕駛的量產車,奧迪A8還帶來了哪些亮點? | 雷鋒網

3. 對於互聯網以及高校等偏研究型、目標L4以上的自動駕駛,如Waymo,百度等更喜歡用高線束LiDAR為主的感知方案,產品主要來自Velodyne生產的64線激光雷達。當然不僅成本高(大概8w美元),而且是一「激」難求,基本上是訂購一年半以後才能拿到產品,不過可以選擇和百度Apollo合作,宣稱基本可以半年內供貨【斜眼】

4. 目前還有一些企業採用激光雷達及雙目視覺構建高精地圖庫的方案,為以後的自動駕駛提供高精地圖數據支撐,如Momenta,百度等

總結來看,目前量產車採用視覺和激光雷達的方案都有,但是鮮有採用雙目視覺構建視差圖來模擬人眼感知的方案,主要原因還是目前雙目視覺構建視差圖的研究還停留在研究層面,真正量產需要克服精度低、計算量大的問題,而雙目以其低廉價格的優勢也在鞭策眾多研究往前進。

目前高線束的激光雷達也是關注的焦點,尤其是瞄準L4自動駕駛的眾多機構,但成本仍是限制其真正上車的關鍵因素之一。前段時間Velodyne發布128線固態激光雷達又給這一方向打了一束聚光燈。


George Hotz 做了一個 comma.ai,屌絲版駕駛系統,原理是用手機攝像頭單目駕駛


謝邀,雙目當前問題是計算量過大,所以裝車困難,fpga方案,dsp方案現在還做不到高解析度和高質量。其他都不是啥大問題。說雨霧的,激光雷達也一樣不行,說近距離不行,這個激光雷達一樣也需要超聲波或者毫米波補盲(我公司正在做可成像毫米波)。baseline太小的也不是問題。激光雷達360度基本只能用在實驗室,量產車型受限於安裝位置,都是不能用一個做到360的,一般4個拼接。不然你雷達如何安裝?像警車一樣做個頂燈一樣的塔嗎?這樣就和雙目區別不大了。實驗室我們用的雙目視野現在一般是110度,只能看做遠20m,車載是不夠但這真不是問題,baseline才十多厘米而已。如果計算量不是問題,以雙目的鏡頭價格,一台車裝上十幾個人也比我們現在做的毫米波成像雷達便宜。當然現在的雙目計算量問題太大解決不了導致沒法應在車上(bm計算量小,但效果太差,細節丟失很嚴重),這個問題在解決前雙目確實不太適合裝車上代替激光雷達。


人眼雙目立體視覺有效距離只有幾米,對駕駛基本無用。由於道路上大部分物體大小已知,人僅靠單目視覺足以完成駕駛需要的距離估計。

所以在自動駕駛中依賴雙目視覺測距和人類的方式並不相似,僅使用單目視覺才是,不過目前計算機單目視覺可靠性上與人類還有很大差距。


最主要的還是演算法問題。

雙目視覺不是單獨的技術,需要很好的演算法(現在演算法是有,但是不夠優化,導致計算成本高而容錯能力差,雨天基本無用),甚至還要專門的晶元(並行處理能力更強,但最終應該很便宜)。

演算法上,人眼測距也不是單獨使用雙目視覺的,常見物體其實可以使用大小測距以及地面參照測距,以補充雙目測距在遠距離上的限制,這一點是需要積累特徵數據的(現在連演算法還沒準備好,更別說訓練數據了)。而要將幾種演算法的測距整合,有需要更進一步的AI。

個人覺得,如果激光測距的硬體成本為了大幅下降,類似現在的手機攝像頭,幾美刀的也能用,幾十美刀就能買個超好,那麼是可能成為自動駕駛(包括汽車、無人機甚至導彈)的標配的。如果不能,那雙目視覺很快就能趕上來。

最後說明一點我的觀點:攝像頭測距(無論是雙眼三角還是特徵大小識別),靠人從頭寫到腳是不行的,肯定是人工智慧,而且不是單獨按在一輛車上的AI,而是按在伺服器上的,車上的只是一個客戶端,客戶端的演算法是不斷被伺服器調整的(即使斷網也能用)。

碳基猴子能做到的,我們硅基生物用同樣的方法也能做到,如果我們用了其他的方法,那肯定是效果更好


雙目測距最大的問題是計算時間和反應精度!首先談反應時間視覺處理採集量非常巨大,無論採用各種演算法都很難在短時間內得出有效的計算結果也就是實時性太差,而在計算的時間內汽車還在行駛,也就是速度越快越危險;

其次是精度問題,雙目成像靠三維重構來得到深度信息,做過三維視覺的同行都知道三維重構的精度與安裝位置、平台震動有莫大的關係,在這方面激光測距甚至超聲波測距精度是輾壓雙目測距的存在,實際應用中精度達到mm級是so easy!且視覺對天氣的要求非常高,實際中穩定性非常差!

無人駕駛最好的發力點一是高速,二是公交!高速通過物聯網的發展實現路段信息全程監控,在高速上行駛的汽車路徑規劃以接收路段自身感測信息為主、自身檢測為輔才是正確的發展方向(取決於物聯網的發展)!公交車因路線固定、速度緩慢,也是無人駕駛最好的切入點!

但這兩點市場面太廣,牽涉基本盤太大!能否試點運行推廣還取決於政府平衡分配主導能力!


具體說一下,我個人認為 雙目輔助雷達 是最好的選擇。這裡雙目甚至可以多目。

光學攝像頭測距本身就是個很難的圖像學課題,雖有很多文章,但是演算法穩定性和誤差拿到人命關天的駕駛上都存在問題。 之前以色列的幾個工作室的演算法在這方面有改進,但是終歸沒什麼必要。

作為整個自動駕駛的核心,數據輸入的穩定性直接關乎到駕駛的所有問題。

光學攝像頭的特性,無論是視野 還是對焦還是抗光源干擾上都是大問題。不可能作為單獨的數據輸入源。這裡我還要讚歎一下大自然的鬼斧神工,哺乳動物的眼構造極其精妙,加上大腦的模糊判斷及學習功能,完全可以勝任駕駛工作。但是同樣的條件拿給機器,現在的人類科技可能就要比較難處理了。

最後說一句→_→ 確實現在的那幾家自動駕駛的設備都挺難看的。不過這應該都是小問題。


雙目視覺可以計算出深度信息,但是從目前來說效果還比較粗糙。另外類似夜晚和雨天夜晚這種極端場景中只依賴於視覺會很容易fail掉。最後一方面隨著深圳小廠開始大規模鋪激光雷達的產線,成本會進一步降低,最後有望成為一個平價感測器。


好像目前回答的都是做技術、工程、演算法的大佬,學習到很多知識,衷心感謝~

作為一個工業設計的學生,個人從工業設計的角度拋塊磚,各位大佬隨意斧正或斧決……

目前看來,自動駕駛有很大概率是未來的主流駕駛方案。而其可靠度一旦被接受,一定會出現不能人工駕駛的純自動駕駛汽車(市場需求決定)。

當前汽車的外形是受駕駛者視線要求所影響的,擋風玻璃大小、曲率,後視鏡大小、位置,車燈高度、功能……要確保足夠的光學信息都能不失真地匯聚到駕駛者那兩顆眼球中,其實是一件很複雜的事,車輛在外觀上是對此有所妥協的。倘若進入純自動駕駛時代,外觀上是會有變化的。

和人眼相似,雙目視覺並不是僅僅兩個攝像頭和一個處理器就能解決的,還有雨刮、照明車燈、(轉向或增穩可能還需要雲台)等輔助的設備。而激光雷達若是能做到固態,其餘硬體需求其實並不高。且有全向探測要求的話,四個固態激光雷達即可完成,而雙目……先不提fov小的問題,夜間全向開大燈也不現實對吧……

另一個要考慮的問題是車與車,車與路面設備的信息交流問題,也就是物聯網的問題。對於車自身感測器的死角,需通過物聯網的信息進行完善。被其它車輛遮擋的區域,如果可以得到遮擋車所收集的環境信息,便可以補完死角。感測器收集回來的數據轉化成統一的環境信息,並被車輛之間所交流,是未來的必要需求。物聯網倘若發達,車輛甚至可以在自身感測器失效的狀態下藉助周邊車輛發送的環境信息保持正常行駛。哪種感測器收集的信息更適合交流,也會是選擇感測器的一個考慮因素吧……

感測器配置肯定不會是單一的。即便是人類,在駕駛時除了視覺,也有聽覺和加速度感知等其它信息參與駕駛。車上同時保留激光雷達、超聲波、可見光、紅外等一大堆感測器,在不同外部條件下變化合適的權重才是更為穩妥的做法罷……

如無人駕駛不用可見光作為主感測器,甚至可以考慮取消照明車燈,僅保留示廓車燈。對於節能和減小光污染都是大有裨益的。

所以從未來需求與趨勢上看,激光雷達適用面比雙目視覺要廣些。成本控制和技術發展下去,激光雷達的前景更好。


以車道檢測線為例。基於視覺系統的車道線檢測,有諸多缺陷。

首先,視覺系統對背景光線很敏感,諸如陽光強烈的林蔭道,車道線被光線分割成碎片,致使無法提取出車道線。

其次,視覺系統需要車道線的標識完整,有些年久失修的道路,車道線標記不明顯,不完整,有些剛開通幾年的道路也是如此。

第三,視覺系統需要車道線的格式統一,這對按照模型庫識別車道線的系統尤其重要,有些車道線格式很奇特,比如藍顏色的車道線,很窄的車道線,模型庫必須走遍全國將這些奇特的車道線一一收錄,才能保證順利檢測。

再次,視覺系統無法對應低照度環境,尤其是沒有路燈的黑夜。一般LKW要求時速在72公里以上才啟動,原因之一是速度比較高時人不會輕易換道,另一個原因就是比較低的車速意味著視覺系統的取樣點不足,擬合的車道線準確度較低。而激光雷達的有效距離一般是視覺系統的4-5倍,有效的採樣點比較多,車速較低時檢測準確度遠高於視覺系統。

最後,如果車道線表面被水覆蓋,視覺系統會完全無效。視覺系統最大的優點就是成本低。因此自2008年後,學術界已經很少研究基於視覺系統的車道線檢測,轉而利用激光雷達檢測車道線。

激光雷達可以解決上述所有問題,包括車道線被水覆蓋,激光雷達最大可穿越70米的水深。目前激光雷達唯一的缺點就是成本太高。

更多信息:專欄 | 如何利用激光雷達檢測車道線?這裡提供了4種方法


前面的很多回答不看好雙目視覺,原因歸結於光照影響,結構設計要求高,標定繁瑣等。這是事實。

事實上激光雷達也有自身問題,比如難以處理沙塵煙霧場景,機械轉動導致壽命低(我見過不少壞掉的LlDAR),對射等?

有一個很紮實的無人駕駛團隊感知團隊叫戴姆勒,他們著名的工作稱作6D vision。http://www.6d-vision.com

互相結合,揚長避短,綜合考慮性能、成本等。

短期內,可以不存在誰取代誰的問題;

關於實時性,可能也不必太過於擔心。我們用一顆中等邏輯資源的FPGA,實現1080P的30幀實時視差計算。


這些年看了很多雙視、多視的立體視覺演算法和技術,在精度和速度上有很大進步。但在自動駕駛領域,我是說和激光掃描儀這樣的硬體結合的技術相比,雙目多目這些視覺演算法非常雞肋,演算法不穩定,結果不理想,問題頗多,總標榜著成本低,但也就是山寨手機和iPhone的差別,不是小米榮耀ov和iPhone的差別。

在做演算法設計的同時,要敬畏那些硬體廠商帶來的技術進步,單純的演算法設計不是萬能的,結合硬體的演算法設計才是王道


車太小

真做雙目有太短

坦克上做獵殲倒是有前途


推薦閱讀:

「深度神經網路」(deep neural network)具體是怎樣工作的?
美國cs博士一般幾年能畢業?
如何形象又有趣的講解對抗神經網路(GAN)是什麼?
amazon picking challenge(APC)2016中識別和運動規劃的主流演算法是什麼?

TAG:計算機視覺 | 無人駕駛車 | 深度學習DeepLearning |