自動駕駛呼喚理性決策 | CES深度分析(三)

導讀

本文作者:地平線智能駕駛商務總監李星宇。本篇推送是全文第三部分內容,最後一部分將在明天繼續放送!

文章對本屆CES的自動駕駛最新進展進行了分析,認為商業模式的變革是自動駕駛領域群雄並起的原因,並從「合作共享」、「感測器成本下降」和「車聯網發展」三個角度論證了自動駕駛產業化的長足進步。他還指出,自動駕駛競爭的關鍵是更加理性的決策演算法和更實用的計算平台。文章最後,他對自動駕駛的未來表示非常期待。

回顧:第一部分

回顧:第二部分

當前:第三部分

第四部分

一、決策演算法成為競爭焦點

從技術角度講,自動駕駛由三大主要技術構成:感知、決策和控制。現在自動駕駛技術真正的門檻在哪裡?

地平線自動駕駛技術架構

如果你去CES參觀各家公司的自動駕駛樣車,你會發現一個趨勢:各家公司的感測器配置越來越趨同化:前視多目攝像頭,77GHz長距/短距雷達、環視攝像頭、加上十個以上的超聲波雷達,豪華一點的再配上幾個低線束的激光雷達,這些感測器的供應商也差不多。在感知層面,隨著ADAS的大量部署和長時間的技術開發,已經相當成熟,可以說感知技術已經不是主要的瓶頸。而控制則是傳統車廠和Tier1非常擅長的領域,做了很多年,積累了大量的經驗。

自動駕駛在技術上的競爭,主要聚焦於決策環節。事實上,區分一個系統是ADAS還是自動駕駛,也主要是看該系統是否有決策部分。無論是谷歌,還是特斯拉,他們的核心競爭力,都還是體現在其決策演算法方面。

傳統汽車界的研發是基於功能安全的設計方法學建立的,滲透到開發流程的每一個環節,並且在過去一個世紀,將汽車的安全性提高到了極高的水準,如今,頂尖的公司已經可以確保汽車發動機能使用一百萬公里!但是面對洶湧而至的機器學習熱潮,傳統汽車界突然發現自己嚴重缺乏技術儲備,面對特斯拉和谷歌激進的策略,顯得力不從心。這已經成為制約傳統車廠開發自動駕駛的最大短板,目前,傳統車廠或者大肆收購機器學習公司,或者與其合作,他們需要儘快補上這塊短板。

傳統車廠出身的克拉富西克顯然深知這一點,在他出任Waymo CEO之後,谷歌一改之前模稜兩可的商業策略,明確表示向車廠提供解決方案,並迅速宣布和本田合作,事實上是將自己定位在Tier 1的角色,此前谷歌雖然在技術積累上處於領先位置,但一直沒有確定可行的商業模式,克拉富西克的到來,讓谷歌對於商業化的態度更接地氣,也更精準。在該解決方案中,硬體基本也是外購的,顯然無法成為谷歌的競爭壁壘,最有價值的,還是一整套經過驗證的軟體,尤其是其中的決策演算法。可以想像的是,谷歌將會向業界提供軟體授權,就像它之前在安卓系統上所做的一樣。

二、理性決策是必然趨勢

決策演算法面臨的最大挑戰,就是如何達到自動駕駛所需要的極高的安全性和可靠性。自動駕駛決策的結果會輸出到控制器,根據ISO26262已有的功能安全的規定,這會反過來要求決策系統也需要達到ASIL-D的標準。目前,ISO組織對專門針對自動駕駛的功能安全標準正還在制定中,有可能會用一種新的標準進行考量,但功能安全的基本原則依然有效。

? 端到端的AI方法有隱患

這意味著,我們必須嚴肅地思考,如何才能滿足功能安全的要求?對於谷歌、百度以及許多初創公司,這些非傳統車廠出身的玩家來說,是一個全新的命題。

目前,很多創新公司都在使用深度學習加增強學習做端到端的訓練,也就是說,從感測器的輸入直接導出控制器(剎車、油門、轉向等)的輸出。但深度學習的問題在於它失去了透明性,僅僅依賴於概率推理,也就是相關性,而非因果推理,而這兩者是有本質不同的。

相關並不意味著因果。舉個例子,統計發現,手指頭越黃的人,得肺癌的比例越大。但事實上,手指的顏色和得肺癌的幾率之間顯然沒有直接的因果聯繫。那麼為什麼統計數據會顯示出相關性呢?這是因為手指黃和肺癌都是由吸煙造成的,由此造成了這兩者之間產生了虛假的相關性。

深度學習就像一個黑盒子,無法進行分析,出了事情你不知道原因到底是什麼,也沒有辦法預測下一次會出什麼狀況,有一個很搞笑的例子,用深度學習訓練一個系統,來分辨哈士奇和愛斯基摩狗,初步測試效果非常好,但進一步的測試表明,這個系統其實是通過區分背景,而不是狗本身來判定其種類的,因為訓練所使用的樣本中,愛斯基摩狗幾乎總是伴隨者雪地的背景,而哈士奇則沒有,想想看,如果這樣的系統應用到自動駕駛,是多大的隱患!

深度學習的實際表現,基本上取決與訓練的樣本以及你所要求輸出的特徵值,但如果你的樣本比較單一,輸出特徵值又比較簡單,則很容易訓練出你並不想要的結果來。就自動駕駛而言,這是無法接受的,它需要高度的理性決策。

如今,深度學習的熱潮席捲了整個業界,很多人不再對基礎演算法進行鑽研,而是瘋狂加大數據,堆機器進行訓練,以期更快地出成績,結果看上去還不錯,但這樣的非理性態度其實是給自動駕駛埋下了隱患。我們需要的是對於事實邏輯的深入分析,已經不同方法論的結合,從這個意義上講,如果用小數據可以達到好的效果,更能說明我們對機器學習技術的理解能力。

? 基於規則的專家系統不靈活

傳統的主機廠和Tier 1面臨的則是另外的問題,如果接觸各大Tier1的ADAS產品,無論是AEB,還是ACC,LKA,你會發現都是基於規則的專家系統。這種系統精確可分析,但專家系統的問題在於,但場景非常多變時,創建的規則就無法保證足夠的覆蓋面,結果,當添加更多新的規則時,就必須撤消或者重寫舊的規則,這使得這個系統變得非常脆弱

並且,各個功能都有自己單獨的規則,組合到一起,其可能性就非常多,甚至還存在矛盾,這使得ADAS向自動駕駛過渡之路變得更加艱難。我曾經跟一家主機廠在交流他們的決策系統詢問過這個問題,得到的答案是:這種基於專家系統的規則經過組合,能產生一萬種可能!你甚至很難對這個系統進行完整的測試。

? 新的決策機制:因果推理

因此,我們需要在自動駕駛領域引入新的決策機制。自動駕駛決策技術路線的一個重大趨勢,就是從相關推理到因果推理。這樣的人工智慧框架是Judea Pearl在八十年代建立的,他也因此拿到了圖靈獎。

上世紀 80 年代初,Judea Pearl為代表的學術界出現了一種新的思路:從基於規則的系統轉變為貝葉斯網路。貝葉斯網路是一個概率推理系統,貝葉斯網路在數據處理方面,針對事件發生的概率以及事件可信度分析上具有良好的分類效果。它具有兩個決定性的優勢:模塊化和透明性。

地平線自動駕駛決策機制

模塊化的優勢非常重要,例如,假如任務是更新汽車的變速箱,當變速箱被更換的時候,你不必重寫整個傳動系統,只需要修改為變速箱建模的子系統,其餘的都可以保持不變。

因此,我們可以把深度學習的系統作為一個子模塊融入到其中,專家系統可以是另一個子模塊,也融入其中,這意味著我們有了多重的冗餘路徑選擇,這種冗餘構成了貝葉斯網路的子節點,將有效強化輸出結果的可靠性,避免一些低級錯誤的發生。

透明性是貝葉斯網路的另一個主要優勢。對於自動駕駛而言,這尤為關鍵,因為你可以對整個決策的過程進行分析,了解出錯的哪一個部分。

可以說貝葉斯網路是理性決策的極佳實現,適合用於設計整個決策的頂層框架。

因果推理的另一個典型範例就是基於增強學習的決策框架,它把一個決策問題看作是一個決策系統跟它所處環境的一個博弈,這個系統需要連續做決策,就像開車一樣。優化的是長期總的收益,而不是眼前收益。這有點像巴菲特的價值投資,優化的目標不是明天的收益,而是明年或者十年以後的長期總收益。

谷歌把這樣的框架用在下圍棋上,取得了革命性的成功。自動駕駛的場景也非常適合應用這樣的決策系統。比如說要構建價值網路,評估當前的駕駛環境風險,評估的是從現在時間到未來時間的整體風險;然後利用策略網路輸出本車的控制決策,選擇最優的駕駛路徑和動力學輸出。

同時,我們還可以構建一個基於模擬路況的模擬環境,通過增強學習去做虛擬運行,獲得最優的決策模型,並且還將產生大量的模擬數據,這對決策演算法的成熟至關重要。

可以說,向因果推理型決策模型轉化是自動駕駛技術邁向成熟的重大標誌。

(未完待續)

下期內容:自動駕駛需要新的計算平台

作者簡介

李星宇 | 地平線智能駕駛商務總監畢業於南京航空航天大學,獲得了自動化學院測試儀器及儀錶專業的學士和碩士學位;曾任飛思卡爾應用處理器汽車業務市場經理,原士蘭微電?安全技術專家。 李星宇有13年半導體行業從業經驗。他在加入飛思卡爾的早期,任職於i.MX應用處理器研發團隊,在該領域取得一項NAND Flash存儲應用美國專利。在加入飛思卡爾之前,他在士蘭微電子負責安全晶元的公鑰加密引擎設計,該引擎的RSA/ECC加解密性能處於國內領先平。
推薦閱讀:

當前深度學習和slam結合有哪些比較好的論文,有沒有一些開源的代碼?
NLP(自然語言處理)界有哪些神級人物?
我們離電影《終結者》中的人形機器人還有多遠?
AI研究院 | 谷歌押注人工智慧,但仍在尋找下一個收入來源
這段視頻嚇死十幾個CEO:這個「小蜜蜂」能追身能爆頭!

TAG:自动驾驶 | 人工智能 | 算法 |