谷歌智能車的難點在哪裡?模式識別,還是分析、控制演算法?

話說智能車的成本高,很大成本上是在激光掃描儀上,那就是說還是對道路環境的識別要求高,但是在複雜環境下的演算法也很重要啊(某篇文章上好像說用機器學習分析了大量的數據),以後的突破點究竟在哪兒呢?


一點點說google car的難點,畢竟那是個50多人,10多個教授做出來的東西,我講的可能很不全面,具體內容可以參見後面提到的論文。

無人駕駛技術取向成熟,源於2007年DAPRA的城市挑戰賽。之前的比賽多是在沙漠運行,其主要目的是美軍希望使用無人車運送物資,減少戰時士兵的傷亡。

圖中為2005年的冠軍斯坦福大學的史坦利號(Stanley)。

圖中為2005年的冠軍斯坦福大學的史坦利號(Stanley)。
2007年比賽加入60公里城市道路,要求車輛在無人駕駛的同時,遵守交通規則。完賽的明星有卡內基梅隆Boss


斯坦福大學2007年DARPA的Junior。


照片上的人叫Sebastian Thrun,他及部分團隊成員隨後被Google挖走,於是有了Google Car

其實,如果想知道他們的詳細內容,可以在Field robotics上找到很多邀稿,是所有DAPRA獲獎車輛的技術報告。應該也是這次的論文掀起無人駕駛的研究熱潮。
CMU的技術報告:Autonomous driving in urban environments: Boss and the Urban Challenge
弗吉尼亞理工大學:Odin: Team VictorTango"s entry in the DARPA Urban Challenge

------------------------------------------------------------------------------------------------------------------------------------------
介紹完了背景,說說難點。
1. 感測器技術。
不得不承認現在無人車能出現很大程度上依賴感測器的進步。其實早在80年代美國就通過磁釘導航完成過很多無人駕駛的實驗。他們在地下埋上磁釘,通過尋找磁釘的方式可以完成高速的巡航、並道、超車等一些列的實驗。但是顯然這種成本太高,只能作為實驗。
到了2007年,感測器技術已經突飛猛進了。看看他們的感測器吧。


SICK公司激光雷達。用於檢測周圍障礙物,無人車需要能夠感知周圍環境,又不能像人一樣單純用眼睛完成,於是這玩意可以返回周圍障礙物的距離,誤差毫米級。


這張圖上的無人車頭頂的不是燈,而是5個SICK。一個SICK當時等價於一輛帕薩特。當然現在Google car的激光雷達用頭上的小東西了。

這個小東西頂至少4個SICK,是360度多線激光雷達,今天價值3個帕薩特。

這個小東西頂至少4個SICK,是360度多線激光雷達,今天價值3個帕薩特。

剩下的東西沒有這個壯觀,就不上圖了。
除了激光雷達(避障),還有有毫米波雷達(探測)、GPS(定位)、里程計(定位)、陀螺儀(定位)、視覺系統(檢測、避障)、數傳電台(監控)等等。就不說很多小細節的進步了,但是上述的感測器都是必須的,所以無人車的第一個難點是感測器。

2. 定位
GPS的定位精度遠達不到無人車的需求,GPS官方定位精度「&<10m」,更高精度的GPS基本要依靠差分完成。差分的原理很簡單:設置一個固定基站,固定基站校準位置,再將信號傳遞給車載設備,車載設備在接收到基站信號和GPS信號後差分獲得。但是每一個基站的有效範圍也就30km,怎麼大範圍應用。於是有很多技術要解決GPS精度不足的問題,如地圖匹配。

@AllenBingo 在評論中提到了GPS的干擾,我這裡簡單說一點。
以前GPS中會加入干擾,那時候民用GPS的精度只有100m。這個干擾叫SA,Select Availability,已經於2006年取消。SA依然會在戰時開啟,那時只有美軍自己的GPS能有效定位,而其他的GPS都將失效(所以我國要研發北斗)。傳統gps的協議是0183格式,這種格式允許小數點後4位。軍用級別的gps在此基礎上又加了兩位,至於多出來的幾位是否真能提高精度就不知道了,得用個絕對位置教一下。

如果是「&<1米」的精度對於車輛定位基本上夠用,但是GPS一定要在空曠的場地上才能得到這種級別的定位精度。

除此之外,沒有GPS呢?

在樹蔭下、樓宇間、隧道內GPS信號無法到達,這時就需要里程計+陀螺儀,俗稱慣性導航單元。這套系統的原理就是:花錢越多,有效時間越久。如果要能在沒有GPS的情況下堅持20分鐘,呵呵,3個帕薩特。
原因是里程計、陀螺儀都存在累積誤差。注意誤差是累計的,也就是說上一時刻是0.5m的誤差,下一時刻指定大於0.5m。因此要儘可能約束累積誤差,使其數量級很低,那麼就要上光纖陀螺。因為電子級的陀螺通常達不到這個精度要求,不知道撓性陀螺行不行,但是估計撓性陀螺和光纖陀螺造價差不多。

3.避障
車輛前方有障礙,障礙物是運動的還是靜止的,車是停下來還是繞過去。我沒仔細研究過這部分的內容,知道的演算法是人工勢場法。這部分主要的難度是從感測器識別障礙,在車輛運動的前提下,確定障礙的運動狀態。也就是說你要在運動的坐標系下,計算另一個物體相對靜坐標系的速度,並作出判斷。

4.識別
下面得識別交通標識,如限速牌、紅綠燈。這些通過視覺系統完成,難點主要在實時性和魯棒性。要離線處理這些交通標誌是很簡單的,但是在無人車上需要能在有限的時間裡識別出來,並且考慮道路中可能有的光線變化、遮擋等問題。

5. 控制
你提到控制演算法,除了上面的避障以外,其他外圍機構的改造可能會存在一些改造上的問題。如何介入轉向架、如何介入油門(以前還要考慮如何換擋)。這些工作如果有廠商幫忙還好,沒有的話也會是問題,錢的問題。其實控制的難度相對較小,傳統PID足夠,加上部分買的伺服機構,沒有多大難度,就是活累。

6.規劃與決策
感謝@妙僧無花的建議增加規劃與決策環節。
既然是無人車,一定牽扯「去哪」。目的地由人決定,但是路線是車子計算出來的,這部分的演算法可能你不會,但是你常用,就是百度地圖、騰訊地圖之類的東西,它們通過一定的演算法計算出路徑之後車輛會跟隨這條路徑。當然運行過程中為了解決實際的一些問題,比如修路,也許要決策的機制。

其實對於無人車的控制說小了較控制,說大了叫決策。也可以說,決策是頻率比較慢的控制。舉個例子,我們對方向盤、車速的控制周期是多少呢?大約20ms,也就是1s中要控制50次左右。那麼我們對車輛路線的決策周期呢?大約5s。可以看出,控制是響應速度較快的部分,而決策是響應速度較慢的控制。決策,說白了就是對於一些可能遇到的問題給出的解決邏輯,俗稱人性化。這部分我能力有限,希望懂的人可以給些意見。

我覺得,無人車最關鍵點在於東西不一定複雜,但一定要可靠,所以當有人問Sebastian Thrun(前面Google Car的負責人),你們的車能否在雨雪天開出去的時候。他說,那些日子我們最好不動它。至於你提到的機器學習,我認為這是趨勢,可能在識別部分會有應用,但很難成為無人車的核心技術。原因:1)離線學習會導致演算法有一定的局限性,你在北美弄好的系統在中國不一定能用。2)在線學習成本太高,給車帶個計算機,讓它在車輛運行的同時還能逆向運算?

至於以後的突破口,我覺得是廉價可靠的感測器和相應的識別演算法。這些機構到底能做到多小,多便宜又多可靠。至於提取信息以後的控制,前面說了,80年代就有人做了,還做得不錯(我看過視頻,要是找到的話再傳上來)。


各個網友說的各個方面都是需要解決的問題, @康費 說的也很好,我只是在個別涉及理論的觀點上可能稍有異議。最近幾年各個robotics會議都有相關的關於智能車的討論,比如最近幾年IROS的PPNIV workshop(Automated driving in urban environments:technical challenges, open problems and barriers )。我從智能汽車作為一個機器人系統,涉及到的幾方面技術,在理論方面的難點做一個解釋和補充。

首先,智能汽車作為一個機器人系統,所涉及到的機器人技術主要有控制(control), 感知(perception)和路徑規劃(planning)三大塊內容。作為一個獨立的機器人系統,其自身的計算機系統以及安全性也是一個很重要的方面。關於這幾塊目前的研究以及工業界達到的成就,和技術難點,我正在寫一篇綜述給感興趣的朋友加以介紹。下面就從者三個大方面來看看都還有哪些棘手的問題。

關於控制方面,自動巡航系統(cruise control),自動剎車系統(auto braking),自動停車系統(auto parking)作為獨立的系統都已經比較成熟,而且很多普通有人駕駛汽車上已經應用,以幫助人更好的駕駛。

恩,似乎控制,已經不是什麼大問題了。

那麼感知系統呢?

先簡要說下感知系統所涉及的感測器。智能汽車目前依賴的感測器主要是聲吶,雷達,激光,慣導系統,GPS和攝像頭。其中慣導系統,GPS都是自動測距和里程計的關鍵感測器,里程計估算里程,隨著時間確實有累計誤差存在,GPS在城市環境中也有可能出現局部信息不準確的問題。但是目前的研究可以對這個累積誤差做出很好的修正,比如通過依賴視覺感測器作為里程計技術,根據場景的識別重定位技術,以及更準確的優化演算法。Google的數據我還並為獲得,但去年IROS的workshop上,BMW智能汽車的里程計精確度可以達到10厘米的級別。作為汽車駕駛來說,這一點也足夠安全。

汽車僅僅知道自己里程和位置並不夠,它同時得知道周圍環境,這也是挑戰最大之處。目前通過車載激光感測器,谷歌汽車可以實時看到如下的3D場景:


以上所說的這些感知技術,主要涉及到同步定位與建模技術(Simultaneous Localization and Mapping,簡稱 SLAM)的研究,這也是我的研究內容。對於目前的SLAM技術來說,這已經是一個很不錯的結果,而且在同等感測器,以及實時性要求情況下,不會有太大質的提升。

酷!從圖裡似乎能看到樹,地面,牆,甚至是每條車道。如果我把圖像作為紋理貼在3D模型上的話,似乎都能建一個真的3D地圖出來。看上去還不錯是么?

不過,這僅僅是看上去不錯。作為一個需要穩定駕駛,熟悉路況的智能系統來說,問題頗多。

第一,圖裡的三維場景雖然足夠密和詳盡,但是汽車本身並不知道場景的表示和涵義。也就是說,它僅僅知道有物體在某個位置,但物體究竟是建築?還是樹木?還是路標?僅僅通過這個圖還並不知道。

對於建築和樹木來說,看起來好像汽車並不需要知道他們是什麼。聽上去似乎合理。但是路標呢?這點頗為關鍵。即使通過GIS測繪,可以對各條路的速度限制等做到了解,但是對於施工路段,美帝頗多的stop sign,還有小區里的小路來說,它似乎要無能為力了。那麼假設智能汽車作為一個測試者要去參加交規測試,關於最基本的路況信息,它都是無法通過的。

因為有圖像,我們確實可以根據純粹模式識別問題來依據輸入圖像來檢測路標。我們暫且不要想計算上可行不可行,不討論這一點,放到之後再說。

第二,實際上路的路況識別呢?這就又要涉及到模式識別了。既然如此重要,我們得細緻的看看。

首先演算法需要通過視覺信息檢測到動態物體,包括汽車,人,自行車等等。谷歌汽車可以構建出如下圖的動態模型出來。比如自動駕駛汽車通過感測器來感知運動的模型,一個個刻畫出來,可能是這樣。

那麼現在的問題是,對這些物體進行識別和區分又是一項很艱巨的人物。這是google擅長的吧?是的,通過現在的深度學習等機器學習演算法,對物體的識別,人臉的識別,都已經做的很好了。但先不說這些場景里物體的識別準確率如何,僅僅在一個實時計算能力有限的系統里,對物體識別判斷就已經很讓人為難了。

似乎問題是不僅僅是這麼簡單。實際的路況相當複雜,可能有每秒運動六七米飛奔過來的孩子,還有可能有矮到人都很難發覺的小貓小狗,確定我們的系統依賴於感測器能檢測到這些危險的true positive么?或者可能僅僅是空中飛過來幾片樹葉或者紙屑,恰巧被感測器識別到了,車要緊急剎車停止呢,還是直接開過去?或者這樣的車還不能上路,我們得先去考慮降低這些false positive?對現在的智能系統來說,這些細節都放進去,實在是太困難了。

關於路徑規劃呢,會很複雜么?

這一塊主要分為全局的,和局部的。我們既然可以依賴谷歌地圖幫助我們導航,智能車相信它也沒有任何問題。谷歌地圖甚至可以告訴我們在哪個車道行駛,對於這方面規劃來說,簡直太棒了。

但局部的規劃就依賴於路況的信息了。如何檢測到突發情況,如何在小區域內局部調整運動線路,也是一個挑戰。如何實時構建合理的約束,都涉及到一個場景的複雜程度,和其對應計算量的問題。目前的機器人界的研究,已經有很多研究開始探討如何實時同時進行識別與規劃。

上面說了這麼多挑戰,每一塊都是很有意思的研究,但每一塊問題解決都需要一定的計算量作為基礎。如何在一個實時系統里同時解決這些問題,這又是系統層面上的挑戰。同時,作為計算機系統,安全性,容錯率等等,都是要考慮的因素和問題。

同時作為一個商用的系統,價格是迴避不了的問題。高精度的激光感測器和GPS都造價不菲。即使作為一個成熟的智能系統,如何降低價格,或者在廉價感測器上尋找解決方案,也都是要解決的問題。否則沒有人會在剛開始就在一個昂貴的玩具上做如此大投資,況且它似乎還並不比人駕駛更安全。

說了這麼多挑戰,而且很多似乎都看不出有效的方法來。似乎我在唱衰它,那麼未來要如何改進?

其實它已經很棒了,畢竟google car上路在截止11年時,對外公布的數據就已經安全行駛了140000邁了。路況簡單中遠距離長途運輸似乎應該是它首先發揮功效的地方。只是google想的還更多。

現在BMW,Volvo,Nissan, Honda, Toyota, 甚至Tesla都在高調研究自己的自動駕駛系統,並且向外介紹方案。理念也都各有不同。BMW提倡通過智能幫助人更好的駕駛(我似乎同意),Volvo則希望政府能在公路上面幫他們做點文章,比如增加點表示以助識別。而google則是這方面的激進派,乘客擔心不安全想自己幫下忙?No, google連著方向盤直接去掉了。大家都有穩定的上路測試方案,現階段都是為了解決問題,進益求精。

回到上面說的問題,那些感知系統的問題怎麼辦?

但凡是模式識別的問題,google都有信心,倒不是完全解決,至少它是領先的。Google的街景地圖,以及圖像資料庫,可以為自動駕駛提供一個非常好的先驗知識。在這之上,路標可以訓練,人的模型可以訓練,樹可以訓練,一些雜七雜八可能飄在路上的東西也可以訓練。這涉及到一塊有意思的研究叫做Object Discovery,我正參與的一個項目就有涉及。至少,我覺得還是有希望和方法很好解決的,只是還需要一段時間。


谷歌車不能上路的難點在於最後1%的安全性,本質不是一個技術問題。

實際谷歌車開發了十年還沒產品化就是這個原因。Tesla autopilot強行上路立刻就撞死人,無人車產業很少有人會談自己有什麼問題。

目前行業內把這個問題講的最清楚的要看這篇文章 Toyota#x27;s Gill Pratt on Self-Driving Cars and the Reality of Full Autonomy

Toyota研究所是跟UMich的Edwin Olson等人研究無人車,他們在當地建了一個封閉的試車場。Michigan當地的路況跟加州很不一樣,加州一年四季天晴無雨,Michigan下雨下雪路況差,這些是谷歌車根本不考慮的情況。這也就是為什麼Olson等人對無人車的看法沒那麼理想化。

我簡介一下上面那篇文章介紹的主要難點:

  • 全天候full autonomy的難以實現。美國國家公路交通安全管理局(NHTSA)對無人車的自主性規定了五個法定等級,Level 3是駕駛員可以分心但是必須隨時準備接管車輛,Level 4是有情況但駕駛員未接管車輛時進入安全預設狀態比如停車,Level 5是從出發到到達駕駛員完全不介入的全自主。Level 5自主,沒有地圖的地方怎麼辦?地圖變了怎麼辦?天氣變了,路況變了怎麼辦?紅綠燈滅了警察指揮,能識別嗎?
  • 如果的無人車不能比人更安全,還有什麼意義?99%時間車輛是直行,然後其他1%時間才是事故高發的時間。這1%的corner cases是區分人和機器安全性的關鍵,但是非常難以建模和測試。
  • 對路上其他駕駛員行為和心理建模的困難性。高速路上超速非法,但是人人都超速10%,這個時候如果無人車不跟著超速,反而因阻礙交通而增加風險。谷歌車沒做這個建模,按照路法想當然,所以在路上被一個公交車給撞了。
  • 駕駛員的信任問題。駕駛員面對無人車,是信任還是不信任呢?如果駕駛員信任,而無人車無法實現Level 4,那麼當駕駛員分心之後短時間之內要求他回來處理事故,這是不可能反應過來的任務。如果駕駛員不信任無人車,隨時提心弔膽或者要親自把控,駕駛對駕駛員的精神負擔依然是一樣的,這樣無人駕駛並未給駕駛體驗帶來多少改善。Tesla撞死人的事故就是一個Level 3自主與駕駛員信任矛盾的體現。
  • 駕駛決策的黑箱。因為機器學習的原因,駕駛控制的決策往往出自一個黑箱,出現事故之後難以解釋原因以分配事故責任。

之前我寫過一篇文章:無人駕駛的技術安全風險可以避免嗎? - 羅韻-極視角的文章 - 知乎專欄
可以參考,主要的分析點是在安全和視覺系統上。


另外補充一個難點:模擬技術。模擬其實不只是谷歌的難點,也是其他很多競爭對手的難點。

一輛無人車必須保證在任何意外情況下,都比真人司機做出更好的判斷,才算是安全,才會被允許上路。而想要得出這個結論,一輛無人車需要駕駛上億英里,才能通過統計意義的考驗(statistical significance),被證明為比真人可靠。美國蘭德智庫公司研究顯示,如果想做到低於每一千萬英里1.09的死亡率(95%的置信區間),需要測試行駛2千多萬英里,耗時12.5年。如此漫長的測試時間,各大公司耗不起。

因此,我們需要用到模擬技術。利用模擬環境下駕駛產生的數據,我們就可以在短時間內達到需要的里程測試標準。我們用電腦仿造出各種特殊情況,比如惡劣天氣,訓練無人車應對這些情況,然後將訓練好的數據模型運用於真實駕駛過程中。NVIDIA的自動駕駛論文中詳細闡述了端到端深度學習的模擬原理,其主要過程如下:

1. 架構:設計深度卷積神經網路(CNN),包括標準化層,卷積層,全連接層,輸入為道路影像圖片,輸出為方向盤控制角度。

2. 訓練:模擬器根據之前準備好的由前置攝像頭拍攝的道路影像,每一幀圖片對應的人類司機操控方向盤的旋轉角度作為真實參考值,用於校正CNN的輸出角度,利用這些數據對CNN進行訓練,使輸出角度和真實角度的平均平方誤差到達最小。

3. 數據處理:對於每一幀圖片,隨機移動、翻轉、扭曲、遮擋、改變亮度等,並相應改變方向盤的真實角度,用於模擬汽車的不同位置和環境,以期達到正態分布的模擬情境。

4. 測試:訓練好的CNN可以實時通過圖像輸出方向盤角度,可以直觀的看出汽車在模擬器道路上的行駛狀態。

Udacity(美國在線課程網站)剛剛在GitHub上開放模擬平台,裡面提供各種模擬道路和路況。鏈接。


難點非常多,我只說兩個:
1)google智能汽車能夠分辨出交警的手勢極其意義!!
2)在十字路口時(stop sign)可以觀察周圍汽車的先後順序和轉彎情況來決定自己相應的對策!!
這兩項連很多人都做不好吧?我以前對人工智慧這個詞是持強烈懷疑態度的,但這兩項進展真的讓我震驚了。

弱人工智慧能夠發展到這個份上,真的很強。


老師上課的時候曾談到過無人駕駛汽車會帶來的除技術以外可能帶來的道德問題。假設無人汽車遇到這樣一個場景,事故已經無法避免,無人汽車面對兩個選擇,一是撞向一邊的小孩,一是撞上一邊的老人,機器無法代替人做出這樣的選擇。


主要是感測器問題,即如何用可接受價格的感測器獲得想要的可靠信息。
演算法及軟體部分,是可以很快解決的,至少是有章可尋的,無論是激光雷達,圖像處理,還是導航及控制等前人路已經鋪差不多了。但實際中遇到的情況可能超出它的假設,要保證它的魯棒性,得不斷的填BUG。

一年多的學習過去了,現在我覺得是整個系統搭起來對於普通汽車廠家有難度,但下定決心搞也沒有那麼難,對Google應該也沒啥難度,有難度的可能還是一個決策問題,就是各種可能遇到衝突情況下的策略選擇問題。

感測器用激光雷達+差分GPS+攝像頭,或者再加高精度的里程計,IMU,電子地圖甚至街景。這些融合起來組以獲得足夠的信息了。


歪樓,扯一點自己的想法。
智能車......是智能交通環節中的一個節點。
一個高效的系統,基礎的道路,指揮信號系統的建設和改造,那真是天量的投資,更何況還有後發國家的後發優勢。所以在尚未形成行業的標準前,應該不會有國家或者企業進行豪賭。
所以現在看到的,應該都是某種範圍內的嘗試。
不想步子太大扯到蛋的情況下,可會能對一些比較明確的小範圍目標提供方案,比如美軍的戰區車輛跟隨系統。
由此可以看到一些工業園區,遊覽景區,試點再擴大,才能成熟到可以出現工業標準吧。


康費分析了技術上的難點,說得都很對,但是各方面的發展都非常快,近幾年來關於識別,無線,控制都有很大的進展,其實技術上並沒有人們想像中的那麼不成熟。而且隨著人們的關注,今後會有大量的科研投入這相關的領域,相信技術上難點很快就能解決。 除去技術上的難點,這裡說說還有成本,大眾能否接受,與相關法律制定上的難點。

成本上,在無人駕駛核心的設備LIDAR系統上,2012年的價格約70000刀一套, IHS Automotive 的預測是有望在2025年降到8000刀,2035年降到3000刀. 加上其它的的無人駕駛配套設備,其價格就比帕薩特貴了好幾倍。首先就是買不起的問題。

無人駕駛看起來很有趣,也能提高安全性。但有相信機器處理快是一回事,把自已性命交給機器來控制又是另一回事了。車主不放心讓機器操作,沒有使用無人駕駛車的司機害怕路上的無人駕駛車出問題, 行人也害怕因此反對。更重要的是,在中國,本來就人多,誰都不讓誰,當別的司機或行人知道無人駕駛的車的BUG之後,無人駕駛車就難走動了,反正它見誰都是大爺,都得讓。 特別是谷歌新開發的無人駕駛車,連方向盤都取消了。

與此相關的法律制定也是很大的難點。目前也只美國四個州有相關法律,歐盟有些國家的相關法律正在孕量當中。 中國很多比無人駕駛更重要的法律都很不完善,這方面估計要等歐美做好了再跟著學,估計需要法律制定的路還很長。

這個無人駕駛汽車,幾乎所有能想到的汽車公司都在做,並不是只有谷歌一家, 連百度都跟BMW有技術合作。 也並不是只在美國,中國防科大前幾年就試了一輛紅旗車在京珠高速上跑了幾百公里。英國,新加坡都有政府鼓勵進行研究與測試。儘管有障礙和各種待解決的問題,相信這個領域的發展會非常快,也許快到超出我們的想像。

寫到這裡,想起1949年Popular Mechanics對計算機的預測:在很遠的未來,計算機可能只需要要1000個真空管,可以輕到只有1.5噸!


上面對於感知這部分說的相當詳細了,我來補充與局部路徑規劃和車輛控制,這個部分前面都沒怎麼提到。

局部路徑規劃就是給車輛一個無障礙的行駛路徑,反應到車輛控制上就是一系列操控指令,使車輛按照預定規劃的路徑通過無障礙局部路徑,這裡有個難點,需要對車輛特性詳細建模。因為不同的操控指令,反應在車輛行駛偏差會不同,因此需要對車輛特性進行詳細標定,是車輛行駛軌跡不和局部路徑規劃。看一下目前很多車輛的自動泊車功能就會發現這個問題,車位不夠寬裕的前提下,車子很難自動停進去,這是由於兩個原因造成,一個是空間路徑規劃不夠細緻和最優,另外一個就是對車輛特性建模不足,導致系統認為停不進去或者碰撞風險較大。


一個難點在於「夜晚」 「雨雪」的條件 和「晴天白天」完全不同。所有演算法參數都要調整,但如何自動的調整 或者說如何自動檢測環境情況 就很難了。

至於說laser很貴什麼的 這都不是問題啊。Urban Challenge的時候 MIT那款車號稱超便宜sensor裝滿車,難點只在data fusion。SICK laser肯定不會裝在普及型無人車的,高富帥也許會要求定製。


按人工智慧的邏輯順序,大體可以分為以下幾個方向:
一.信息採集
1、路況信息。感測器,採集路上的交通標示,車輛信息,路面信息,行人信息等等。
2、位置信息。GPS定位系統,以及地圖。
3、車況信息。自身車輛當前的信息,比如車速。
4、規則信息。(就是交通規則,好像這個最簡單了)

二.信息處理
1、信息識別。
將感測器接收的信息,進行識別,難點在於精確度,萬一有個路人沒識別出來,會出人命的。
2、策略。
個人覺得這是最難的地方。
決策的相關要素很多,通過信息識別出來的信息,要綜合起來進行策略上的規劃,信息數量越大,可選擇的決策就越多,如何在眾多的決策中,選取一個最優的,就成了大問題。即使是人腦,有時候都會做出錯誤的判斷,更別說一個「模擬的人腦」了。

舉例:
前方突然出現一個「東西」,距離很近,識別系統告訴電腦,這個「東西」有50%的可能是一個人。
那麼,要麼汽車減速,讓感測器有足夠的時間去提高識別率,確認那個「東西」到底是不是人。要麼打方向盤,躲過去。要麼汽車不減速,繼續開過去。
前者,由於突然減速,可能造成後面汽車追尾,對自己造成危險。
中者,由於突然變向,可能造成和其他車輛的碰撞,對自己和他人造成危險。
後者,由於沒有減速,一旦那個東西「確實」是人,可能對行人造成危險。
如何決策?
即使是人腦,恐怕當時都難以做出準確的決定吧。有人會猛踩剎車,有人沒準打方向盤,有人可能真就直接開過去。

三.行為控制
這個就是電子和機械方面的東西,控制車按照策略進行移動。


拋開成本不談,從谷歌無人車團隊的角度來講:最難的地方,不是在正常情況下無人車行駛得有多好,而是在一些突發情況下,無人車會怎麼做。車輛行駛在道路上,會遇到無數種突發情況,在這麼多種情況里,有很多都是連人類自己都從來沒有遇到過的,難點就來了,當無人車遇到連人都沒有遇到過的情況,他會怎麼做,他會如何選擇,這才是做無人車最難的地方。


可靠性.

1.0 做個玩具, 很多實驗室可以.

2.0 實現功能, 很多企業可以完整演示.

3.0 工業級應用, 那麼就不是一兩個牛人的事情了, 結構, 機械, 電氣,控制, 視覺, 網路, 軟體, 演算法, 即便在google平台, 調集這麼多人, 多學科協同的難度不比一架飛機小. (工作量應該是小很多)

4.0 可靠性.

從99%, 到99.9%, 到99.99%. 在國內搞過可靠性的人知道. 這是一個無底洞.

軟硬聯調, 機電集成, 一次通過容易, 次次通過難. 你問哪難?

反正不是你說的那些, 因為那些都是一次解決, 永無反覆, 一處解決, 所有車都ok的地方.

這次輪子角度偏0.01度會怎樣? 突然爆胎會怎樣? 有人撞你會怎樣? 短暫網路中斷會怎樣?

..... 99.9998% 是之前谷歌對外宣傳的百萬分之2的出錯率.


A Good Choice ------ 2017 ICM Problem D


不錯,SLAM


繼續努力!


最關鍵的不是技術,而是創意!

位置太低!解決問題的思路就窄!

【創意】改變世界!搶佔世界巔峰

自動駕駛將很快成為最賺錢的行業!凈利會比谷歌+蘋果多的很多!
自動駕駛離實用還很遠是因為谷歌研發思路和推廣思維有問題!
創意可以解決研發和推廣的問題,自動駕駛就能很快實用很快賺錢!
創意可以成為交通擁堵問題的最終解決方案!
創意可以從根本上改變互聯網、移動互聯網的格局!
庫克Tim Cook:電動汽車行業正處於巨大變革的臨界點。
我更想說:是顛覆世界格局的臨界點!是搶佔世界巔峰的臨界點!
谷歌,現在叫字母表的拉瑞 佩奇Larry Page也許並沒意識到這一點!
就會像錯過社交網路一樣錯過自動駕駛的最佳時機!

蘋果、谷歌的較量!谷歌技術領先、意識落後。很可能失敗!

【創意】是1,尋找後面N位0改變世界!


記得看過一篇文章說無人駕駛車輛在遇到無法避免的碰撞時該怎麼選擇。
比如說前面有兩個騎車的人,一個守法戴了頭盔,被裝後可能不會頭部受傷死掉;另外一個不守法沒戴頭盔,撞了之後可能會掛。。那怎麼擇就是個問題了


推薦閱讀:

TAG:機器人 | 人工智慧 | 模式識別 | 自動化 | Google 無人駕駛汽車 |