全自動駕駛並未真正到來,現在還沒有馬車智能呢

買買買,晒晒曬。

買初創買專利買人才,曬技術曬路試曬願景。

2020 和 2021,這兩個在 2016 年下半年和 2017 年開年不斷被提到了兩個關鍵年份,成了無數汽車和科技公司預測的自動駕駛落地之年。

我們希望自動駕駛車像什麼?像匹聰明的馬

如果把自動駕駛解析成最簡單的幾塊,應該包括:感知、決策、控制。而最高級別的自動駕駛,就是人們希望自動駕駛車能夠像一名老司機一樣,只要告訴目的地,車輛就能帶你到你想要去的地方,乘客無需做出任何駕駛決策和指導。

但人們往往不會認為機器是和人類一樣的東西,那麼對於人們來說,全自動駕駛車恐怕就是一輛不需要車夫的高級馬車,而目前市面上常見的駕駛輔助車型,就是仍需要車夫把住韁繩的普通馬車。

用戶上傳的圖片

舉個例子:一輛馬車在路面上行駛,奔跑的馬會分辨路面和障礙,躲開障礙沿著路走,遇到阻攔自動停下,經過多次訓練熟悉路線的聰明馬無需車夫引導就能自己到達目的地,沒有那麼聰明的馬儘管需要車夫偶爾調整方向,也不至於自己撞牆搞個車毀人亡。

這其中的關鍵在於感知。這是個複合詞,包括 「感」 和 「知」,也就是說,要實現感知,首先要發現目標,然後還要知道目標是什麼。

用戶上傳的圖片

自動駕駛中的感知是個比較容易解釋的概念,通過攝像頭、毫米波雷達、激光感測器等部件,繪製車輛周圍的 3 維環境,再通過視覺識別技術來確定周圍的物體是什麼,哪些是可行駛道路,哪些是車,哪些是無用的道路成分。

然而有這樣一個問題:人類,甚至說是一匹馬這樣的生物,所擁有的感知能力都是多維的。在駕駛過程中,不僅僅是視覺,嗅覺、聽覺、觸覺都會參與到對環境的感知之中,我們在開車時聽到後方車輛的喇叭聲就知道自己需要避讓,聞到車輛內外的焦味,就會讓自己警惕車內外的安全情況,開窗的話也可以隨著風聲聽到後方車輛慢慢趕上或越來越遠,把手伸出窗外,也完全可以根據風阻大概判斷速度的變化。

用戶上傳的圖片

目前的自動駕駛車,更像是一個視力不錯但喪失了其與感官的智障,僅僅能看到,但是看到了後,還經常不能夠識別出物體是什麼。以特斯拉為例,2016 年那起 Autopilot 致死事故,就是由於車輛攝像頭雖然看到了前方突然橫過來的大卡車,「感」 做到了,但 「知」 沒有做到,當時 Autopilot 攝像頭採集的畫面,誤判橫行而過的卡車是橫在路上的路牌,於是系統就沒有啟動剎車。

這麼來看,現在高級的駕駛輔助,可能真的沒有一輛馬車更加 「智能」。

說回到剛被巨款收購的 Mobileye,作為駕駛輔助和自動駕駛視覺識別領域的領導者,Mobileye 將道路感知分為了三部分:物體識別、行駛路徑識別和可行駛區域識別。

用戶上傳的圖片

拿上圖做個例子,圈出的部分就是 Mobileye 單目攝像頭所識別出的物體。首先要知道的是,這已經是個非常黑科技的技術了,因為單攝像頭的識別能力在硬體層面上,只是二維的圖像,但 Mobileye 經過處理,已經能夠在視覺識別時勾勒出物體的輪廓,將感測的維度從 2 維調整到了 3 維,這已經是有一部分感知中的 「知」 的體現了。

用戶上傳的圖片

(2 維平面視覺識別)

將傳統 2 維的圖像識別多跟蹤幾幀,繪製出 3 維的環境信息後,交給自動駕駛大腦的信息量就完全不同了,傳統 2 維信息是只能知道物體的大概位置和正面面積,但是拓展到 3 維後,車輛方向、車輛體積、具體位置都有了。

不要急,這只是識別出物體,最為關鍵的可行駛路徑識別和可行駛區域還沒有確定,這才是感知最為重要的地方。

用戶上傳的圖片

低級駕駛輔助是根據路上的線來進行識別確定路徑和可行區域,但這有幾個問題,環境不好時候道路上的畫線可能被遮擋干擾,很多路還沒有線。所以這時候就要引入感知中的 「知」 來作為輔助,那就是深度學習。

通過多次試驗,逐漸將道路的可行駛區域調整繪製出來,分辨出真正的道路和馬路沿並且逐漸根據人類司機的行駛路徑,在無畫線道路畫出適合行駛的初步路線。

說的這麼複雜,但仔細一想,這些事情,其實一匹馬就能辦到。

感知還不算難,難在決策

人人都有眼睛,都能感知,但不是每個人都會開車,人類司機開車上路前也要學習技巧考個駕照,更不用說自動駕駛車型,比起感知,決策才是最為困難的事情。

如果是一匹馬,遇到障礙它會判斷這個障礙能不能跨過,能就跨過,不能就停下。看似簡單的判斷邏輯和過程,對於自動駕駛車,這樣的決策過程則需要一個複雜的過程,看到障礙,識別出障礙,判斷障礙危險性,做出應對障礙的決策,控制車輛躲避或直接跨過障礙,每一步都需要反覆學習調校。

另一方面,在行駛時的駕駛策略選擇也是需要通過不斷調校進行,但比較困難的事情是,用深度學習的方式培養自動駕駛策略,往往得到的是端到端的結果而並非演算法,也就是說,自動駕駛車感知周圍環境後,會直接輸出駕駛決策,這也就意味著,中間的決策過程失去了透明性。

就如同 AlphaGo 每下一步棋都是根據取勝概率,如果自動駕駛的決策都深度學習端到端的概率來定,那麼駕駛決策的可靠性和安全性就會受到很大影響。

所以自動駕駛的決策更加適合因果推理,也就是完全透明過程的推理過程來導出最後的自動駕駛決策。這樣就能避免端到端推理出現問題的狀況。

舉個例子:雖然每次自動駕駛車併線都能正常進行,但也許自動駕駛車判斷的依據並不僅僅是旁邊車道沒有車且路況允許,也許是幾次學習側後方剛好都是白色車輛且車況允許,車就會併線,這樣端到端的決策方式就會出現場景覆蓋上的偏差。

所以對於自動駕駛車來學,進行調校學習駕駛技巧的過程,要遠難於教一個新手司機開車或者教一匹馬跑賽道。而且除了決策演算法上的調校,要能做到決策的及時性,對於車載電腦的運算能力和運算速度需求也都有很高的要求,這些實現起來,也確實比感知這個過程更難。

別對自動駕駛太樂觀,未來幾年駕駛輔助才是主流

如果自動駕駛真的實現了,會是一種怎樣的交通場景?

用戶上傳的圖片

首先,最為理想的自動駕駛環境,就是盡量減少干擾的封閉路段,就像火車和地鐵,而事實上,目前大多數火車和地鐵都配備了不錯的自動駕駛功能,但為什麼很多線路還是要有駕駛員呢,主要還是為了應對突發的干擾。

本來行駛狀況良好的地鐵,在早高峰人擁擠時,關門時夾到了人,這樣地鐵就必須要重新打開車門,然後再次關門後才能開走。這種意外情況可以說,已經是不能常見更多。

所以實際上,如果只是單一車輛擁有自動駕駛功能,那麼調校再好的演算法也很難靈活應付隨時可能出現的各類干擾。

但我們可以看看大草原上奔跑的牛群和馬群,儘管十分擁擠,但是由於互相都能感知到位置,所以雖然看上去混亂但整個群體卻有序運動。

(查看動圖:http://ifanr-cdn.b0.upaiyun.com/wp-content/uploads/2017/03/Autonomous-Intersection-in-Action.gif)

這就如同福特在 2017 年北美車展上給出的全自動駕駛概念一樣,血液的 「交通」 系統遠比人類的交通系統複雜,但人類的交通會堵車,但生物遠不會堵車。關鍵是血液是一種既集體又獨立的個體,能有機地用盡血管的空間;但人類的交通並沒有這樣的效率。交通愈能自動化,流動愈統一、愈充滿活力。

所以當整個城市都變成無人駕駛的時候,並且全部通過系統連接起來;系統能透過整個汽車的聯網,預測並規劃不同汽車的去向。我們不再需要交通燈、也不需要車道、更不需要車速限制,由整個交通系統去調動,加速、超車;不斷自動完善的系統會取代死板的交通規則。為什麼自動駕駛系統更安全?不是因為什麼超級電腦或激光雷達,而是因為這是會不斷自我調整的有機系統。

然而從技術層面上,整個系統的調配難度,是要高於目前無人駕車車單一車輛避障自動行駛的研發方向的。所以在未來 3-5 年內,愛范兒編輯張博文認為性能更好的駕駛輔助系統仍會是市面上的主流,而真正對人類交通生活產生革命性影響的,在短期內可能會是駕駛輔助而非概念上的完全自動駕駛。

用戶上傳的圖片

就如同一輛馬車,路況良好時放手讓馬自由馳騁,道路環境複雜時再抓緊韁繩自主控制,在整個交通系統還未進化為適應全自動駕駛的生態時,這樣的方式更加理性安全。

更別說,從現在的技術層面來看,很多高級駕駛輔助車,或者是試驗中的自動駕駛車,智能和可靠程度,還不如一匹馬。

作者: @張博文

推薦閱讀:

長城寬頻:流氓的文化?
人類的發展會不會降低自然選擇對人類的影響,從而降低人類進化的速度?
未來科技裝備大揭秘 | 帕金森、糖尿病、癲癇......總有一款可穿戴設備能治你!
如何評價小米2S這款機子?
如何看待國產飛騰2000處理器?

TAG:自动驾驶 | 汽车 | 科技 |