未來SLAM的發展趨勢 | SLAM: 現在,未來和魯棒年代(五)第三部分
歡迎「泡芙們」再次回到泡泡課堂,這次我們繼續來學習該文章最後一部分的內容,【未來SLAM可能的發展】的第三部分。
SLAM 中的新感測器
除了新演算法的發展,SLAM(通常是指移動機器人)也因為新型感測器有了大幅進展。比如,2D激光掃描儀使SLAM系統非常魯棒,3D激光掃描儀是最近的一些應用的主要動力,比如,自動行駛汽車。過去5年大量的研究致力於視覺感測器,成功的應用有增強現實和視覺導航。短期內,標準的視覺感測器是主要的技術方案,尤其是微型無人機,它的負載能力和電源限制無法使用大型、耗電感測器,比如激光雷達。表2列出了SLAM數據集和對應的感測器。注意標杆對比問題主要是幾種感測器,數據集(可以用數據集設計後端)對於感測器不可見。那麼,問題來了:什麼樣的感測器將長期推動SLAM問題的研究?什麼樣的演算法可以更好地使用這種新的感測器?
我們注意到我們還沒有像昆蟲或動物,比如獵豹和鳥,那麼敏捷和易於操作的機器人的一個主要原因是標準計算機視覺感知架構的高延遲,持續時間短。延遲是因為我們需要捕捉圖像還需要時間來處理,持續時間短,運行片段多,是因為我們需要等待下一幀圖像進入(具體如圖9a)。計算機視覺方法典型延遲是50-200毫秒,離散時間是5-100毫秒,依賴於相機的幀率和曝光時間【目前相機的最高幀率是1Mhz,體積大(>公斤級),功耗大(>100W),需要外部補光】。高延遲和離散時間限制了機器人平台的最大靈活性。比如,考慮到中型無人機的傳動裝置固定轉動時間,大概在30毫秒,如果我們將螺旋槳或翅膀的尺寸減小,它可以迅速減少到1毫米以內。因此,為了獲得更高的靈敏度,我們需要更快的感測器和更低延遲的處理時間。我們認為事件觸發的相機可以完美取代當前的圖像感測器。
事件觸發相機,比如動態視覺相機(DVS)或非同步圖像感測器(ATIS)正在改變基於圖像的感知領域。與標準的基於圖像幀的相機不同,獲得固定幀率的整幅圖像,事件觸發相機只發送某個運動改變場景的時刻的局部像素級別的變化。需要注意的是,如果像素的亮度相對變化超過一個閾值觸發事件。【具體的,在動態視覺相機中,如果亮度強度log值的差值大於10-20%時,就會觸發一個事件。人眼對亮度log值得靈敏度是1%。】因此,非同步事件的輸出序列是在微秒級別的,如圖9b。具體來講,每個事件是一個數組[tk,(xk,yk),pk],其中,tk是事件的時間戳,(xk,yk)是觸發事件的像素坐標,pk∈{+1,-1}是事件極值,是亮度變化的信息。
一個事件觸發相機與普通基於圖像幀相機相比有5個關鍵優勢:時間延遲1微秒,觀測頻率最大1Mhz,動態範圍最大140dB(普通相機60-70dB),功耗20毫瓦(普通相機1.5瓦),僅需要很低的數據帶寬傳輸(對一般的運動情況,~k bytes | s ,普通相機 ~M bytes | s )。採用這些特徵可以設計新的演算法追蹤夜晚的棒球,開發像飛蟲那麼靈敏的全自動機器人,即使是定位和建圖在燈光非常挑戰的情況和速度很高的情況下。然而,這些優勢是要花費代價的:因為是由非同步事件的序列,傳統相機的計算機視覺演算法就無法兼容了。就需要將發展了50年的計算機視覺演算法進行移植。
簡要回顧
第一款事件相機已經在2008年商用了,這個領域仍然非常小,只有不到100篇有關演算法的論文使用這些感測器。基於事件的特徵檢測和跟蹤,LED跟蹤,對極幾何,圖像重構,運動估計,光流,3D重構,迭代最近點(ICP)已經做好了。
最近,事件視覺里程計,定位,SLAM演算法也提出來了。這些演算法的事件非同步的出現改變了系統的狀態估計,因此,需要使用感測器的時間特徵,並且能夠設計高度交互系統。連續軌跡估計方法也非常適合使用事件觸發相機:單一事件無法攜帶足夠的信息用於狀態估計,因為DVS的平均數據傳輸速率是每秒100,000個事件,由於需要表示所有位姿,狀態向量的規模將快速增大,這將無法估計DVS在所有離散時刻的位姿。採用連續事件框架,DVS位姿軌跡可以近似於一個基本函數的剛體運動空間的光滑曲線,比如二次樣條函數,或根據觀測事件優化。
待解決的問題
事件相機作用很大,但如果沒有實踐和演算法的調整,就沒有這樣的需求。
構建模型,靈敏度和解析度:事件相機有複雜的模擬電路,非線性和偏移會改變像素的靈敏度,和其他動態特徵,使得事件觸發對雜訊非常敏感。感測器雜訊特徵和理想曲線現在仍然無法得知。因此,我們仍然無法用事件相機解決定位和建圖問題。
既然事件通過亮度改變觸發,事件發生於場景邊緣有關。然而,大部分事件方法是場景強梯度,如果邊緣光滑就會失效。時刻解析度非常高(1us),空間解析度非常低(128x128 像素),論文30提出了一個問題。另外,新開發的事件相機感測器克服了一些原有的問題:ATIS感測器發送像素級別亮度的強度;DAVIS感測器可以同時輸出圖像幀和事件(這樣就可以同時加進一個普通相機感測器和DVS感測器到同一個像素幀率中)。
事件相機還是普通相機?哪個感測器更適合SLAM?給定SLAM感測器和演算法主要看感測器和演算法的參數,還有環境情況。完整的選擇演算法和感測器獲得最好性能的方法還沒有找到。然而,論文59的研究表明,給定任務的性能還依賴於感測器的可用電能。多感測器的最優感測架構可能無法根據性能要求同時開關。
結論
我們進入了意識到魯棒性的年代,SLAM領域面臨更多更新的挑戰。失效保護SLAM系統的設計,參數自動調整演算法,環境高級幾何度量和語義表示,還有任務和資源關聯SLAM系統,更具有挑戰,比最新的理論工具和感測器更有趣。SLAM仍然是大部分機器人應用的主要組成部分,與人類好不費力的功能相比,現有SLAM系統遠遠不能提供有效的,可用的,精簡的環境模型。
--------------- 我是分隔符 -------------
?本文由泡泡機器人原創編譯,轉載請聯繫獲得授權。
原文《Simultaneous Localization And Mapping: Present, Future, and the Robust-Perception Age》
由於引用過多,需要查看引用文獻的讀者可以搜索原文,或通過該鏈接《Simultaneous Localization And Mapping: Present, Future, and the Robust-Perception Age》下載查閱。
- #小編嘮叨# |瘋子、豆子
- #001 知乎平台的第十篇,繼續堅持。
- #002 本文就到這裡嘍,下一篇更精彩,敬請期待。
- #003 希望你的熱情轉發,讓更多的人能進入到SLAM這個領域中,讓我們共同為推進中國的SLAM事業而努力!
- 版權聲明 | 泡泡機器人的所有文章都是花費大量心血製作而成的原創內容,希望大家珍惜勞動成果,轉載請務必註明出自泡泡機器人,並附上本文鏈接,否則侵權必究。(商業合作和轉載請聯繫paopaorobot@126.com)
推薦閱讀:
TAG:同時定位和地圖構建SLAM | 增強現實AR | 機器人 |