自動駕駛汽車涉及哪些技術?
&>&> 本問題已加入 人工智慧 · 自動駕駛 圓桌中,歡迎關注圓桌參與更多討論 &<&<
Google從2009年開始做自動駕駛,到現在已有8個年頭。8個年頭的技術積累還無法將自動駕駛技術量產落地,可見自動駕駛技術並不簡單。
自動駕駛是一個龐大而且複雜的工程,涉及的技術很多,大部分答主僅從軟體方面進行了介紹,而且太過細緻。我從硬體和軟體兩方面談一談自動駕駛汽車所涉及的技術。
硬體
離開硬體談自動駕駛都是耍流氓。
先看個圖,下圖基本包含了自動駕駛研究所需要的各種硬體。
圖片出處:https://www.e-sciencecentral.org/articles/SC000011141
然而...
這麼多感測器並不一定會同時出現在一輛車上。某種感測器存在與否,取決於這輛車需要完成什麼樣的任務。如果只需要完成高速公路的自動駕駛,類似Tesla 的 AutoPilot 功能,那根本不需要使用到激光感測器;如果你需要完成城區路段的自動駕駛,沒有激光感測器,僅靠視覺是很困難的。
自動駕駛系統工程師要以任務為導向,進行硬體的選擇和成本控制。
1.汽車
既然要做自動駕駛,汽車當然是必不可少的東西。
從我司做自動駕駛的經驗來看,做開發時,能不選純汽油車就別選。
一方面是整個自動駕駛系統所消耗的電量巨大,混動和純電動在這方面具有明顯優勢。另一方面是是發動機的底層控制演算法相比於電機複雜太多,與其花大量時間在標定和調試底層上,不如直接選用電動車研究更高層的演算法。
國內也有媒體專門就測試車輛的選擇做過調研。為什麼谷歌、蘋果不約而同選擇這款車?
2.控制器
在前期演算法預研階段,推薦使用工控機(Industrial PC,IPC)作為最直接的控制器解決方案。因為工控機相比於嵌入式設備更穩定、可靠,社區支持及配套的軟體也更豐富。
百度開源的Apollo推薦了一款包含GPU的工控機,型號為 Nuvo-5095GC,如下圖。
圖片出處:Github ApolloAuto
當演算法研究得較為成熟時,就可以將嵌入式系統作為控制器,比如Audi和TTTech共同研發的zFAS,目前已經應用在最新款Audi A8上量產車上了。
圖片出處:奧迪在 CES 上做了什麼?
3.CAN卡
工控機與汽車底盤的交互必須通過專門的語言——CAN。從底盤獲取當前車速及方向盤轉角等信息,需要解析底盤發到CAN匯流排上的數據;工控機通過感測器的信息計算得到方向盤轉角以及期望車速後,也要通過 CAN卡 將消息轉碼成底盤可以識別的信號,底盤進而做出響應。CAN卡可以直接安裝在工控機中,然後通過外部介面與CAN匯流排相連。
Apollo使用的CAN卡,型號為 ESD CAN-PCIe/402,如下圖。
4.全球定位系統(GPS)+慣性測量單元(IMU)
人類開車,從A點到B點,需要知道A點到B點的地圖,以及自己當前所處的位置,這樣才能知道行駛到下一個路口是右轉還是直行。
無人駕駛系統也一樣,依靠GPS+IMU就可以知道自己在哪(經緯度),在朝哪個方向開(航向),當然IMU還能提供諸如橫擺角速度、角加速度等更豐富的信息,這些信息有助於自動駕駛汽車的定位和決策控制。
Apollo的GPS型號為NovAtel GPS-703-GGG-HV,IMU型號為NovAtel SPAN-IGM-A1。
5.感知感測器
相信大家對車載感測器都耳熟能詳了。
感知感測器分為很多種,包括視覺感測器、激光感測器、雷達感測器等。
視覺感測器就是攝像頭,攝像頭分為單目視覺,雙目(立體)視覺。比較知名的視覺感測器提供商有以色列的Mobileye,加拿大的PointGrey,德國的Pike等。
激光感測器分為單線,多線一直到64線。每多一線,成本上漲1萬RMB,當然相應的檢測效果也更好。比較知名的激光感測器提供商有美國的Velodyne和Quanergy,德國的Ibeo等。國內有速騰聚創和禾賽科技。
雷達感測器是車廠Tier1的強項,因為雷達感測器已經在汽車上得到了廣泛使用。知名的供應商當然是博世、德爾福、電裝等。
6.硬體部分總結
組裝一套可以完成某項功能的自動駕駛系統需要及其豐富的經驗,並且要對各感測器的性能邊界及控制器計算能力了如指掌。優秀的系統工程師能在滿足功能的要求下將成本控制在最低,使其量產、落地的可能性更大。
軟體
大部分答主已對軟體進行了闡述,我也從我的角度介紹以下軟體的開發。
軟體部分的內容已在我的回答:無人駕駛,個人如何研究? 中進行了介紹。
以下內容前半段為搬運。
軟體包含四層:感知、融合、決策、控制。
各個層級之間都需要編寫代碼,去實現信息的轉化,更細化的分類如下。
1.採集
感測器跟我們的PC或者嵌入式模塊通信時,會有不同的傳輸方式。
比如我們採集來自攝像機的圖像信息,有的是通過千兆網卡實現的通信,也有的是直接通過視頻線進行通信的。再比如某些毫米波雷達是通過CAN匯流排給下游發送信息的,因此我們必須編寫解析CAN信息的代碼。
不同的傳輸介質,需要使用不同的協議去解析這些信息,這就是上文提到的「驅動層」。
通俗地講就是把感測器採集到的信息全部拿到,並且編碼成團隊可以使用的數據。
2.預處理
感測器的信息拿到後會發現不是所有信息都是有用的。
感測器層將數據以一幀一幀、固定頻率發送給下游,但下游是無法拿每一幀的數據去進行決策或者融合的。為什麼?
因為感測器的狀態不是100%有效的,如果僅根據某一幀的信號去判定前方是否有障礙物(有可能是感測器誤檢了),對下游決策來說是極不負責任的。因此上游需要對信息做預處理,以保證車輛前方的障礙物在時間維度上是一直存在的,而不是一閃而過。
這裡就會使用到智能駕駛領域經常使用到的一個演算法——卡爾曼濾波。
3.坐標轉換
坐標轉換在智能駕駛領域十分重要。
感測器是安裝在不同地方的,比如超聲波雷達(上圖中橘黃色小區域)是布置在車輛周圍的;當車輛右方有一個障礙物,距離這個超聲波雷達有3米,那麼我們就認為這個障礙物距離車有3米嗎?
並不一定!因為決策控制層做車輛運動規劃時,是在車體坐標系下做的(車體坐標系一般以後軸中心為O點),所以最終所有感測器的信息,都是需要轉移到自車坐標系下的。
因此感知層拿到3m的障礙物位置信息後,必須將該障礙物的位置信息轉移到自車坐標系下,才能供規劃決策使用。
同理,攝像機一般安裝在擋風玻璃下面,拿到的數據也是基於攝像機坐標系的,給下游的數據,同樣需要轉換到自車坐標系下。
什麼是自車坐標系?
請拿出你的右手,以大拇指 → 食指 → 中指 的順序開始念 X、Y、Z。
然後把手握成如下形狀:
把三個軸的交點(食指根部)放在自車坐標系後軸中心,Z軸指向車頂,X軸指向車輛前進方向。
各個團隊可能定義的坐標系方向不一致,只要開發團隊內部統一即可。
4.信息融合
信息融合是指把相同屬性的信息進行多合一操作。
比如攝像機檢測到了車輛正前方有一個障礙物,毫米波也檢測到車輛前方有一個障礙物,激光雷達也檢測到前方有一個障礙物,而實際上前方只有一個障礙物,所以我們要做的是把多感測器下這輛車的信息進行一次融合,以此告訴下游,前面有一輛車,而不是三輛車。
5.決策規劃
這一層次主要設計的是拿到融合數據後,如何正確做規劃。
規劃包含縱向控制和橫向控制。
縱向控制即速度控制,表現為 什麼時候加速,什麼時候制動。
橫向控制即行為控制,表現為 什麼時候換道,什麼時候超車等
6.軟體長什麼樣子?
自動駕駛系統中的部分軟體看起來和下面類似。
軟體的名字反映了該軟體的實際作用
app_driver_camera 攝像機驅動
app_driver_hdmap 高精度地圖驅動
app_driver_ins 慣導驅動
app_driver_lidar 激光感測器驅動
app_driver_mwr 毫米波感測器驅動
app_fusion_freespace 自由行駛區域融合
app_fusion_lane 車道線融合
app_fusion_obstacle 障礙物融合
app_planningdecision 規劃決策
然而實際上攻城獅們會編寫一些其他軟體用於自己的調試工作,比如記錄數據和回放數據的工具。
還有用於感測器信息顯示的可視化程序,類似下圖的效果。
圖片出處:http://open.163.com/movie/2015/10/U/U/MB1G83TR9_MB1GMCRUU.html
———————分割線———————
知乎專欄:無人駕駛乾貨鋪
更多無人駕駛的內容:
互聯網公司和汽車企業都在開發自動駕駛,你更看好誰?
自動駕駛汽車涉及哪些技術?
高精地圖對自動駕駛來說有多重要?在自動駕駛上和一般的導航地圖有什麼區別?
無人駕駛,個人如何研究?
更多段子:
你珍藏了哪些高級黑的段子?
你這麼好看,一定很會點贊~
智能車(Intelligent vehicle)是一個集環境感知、規劃決策、多等級輔助駕駛等功能於一體的綜合系統,它集中運用了計算機、現代感測、信息融合、通訊、人工智慧及自動控制等技術,是典型的高新技術綜合體。
下邊就先給自動駕駛技術做一個總的分類,如下圖所示,自動駕駛的關鍵技術依次可以分為環境感知,行為決策,路徑規劃和運動控制四大部分
- 感知技術
自動駕駛的第一步就是環境信息和車內信息的採集與處理,是智能車輛自主行駛的基礎和前提。獲取周圍的環境信息。這方面涉及到道路邊界檢測、車輛檢測、行人檢測等技術,即上面各位所說的感測器技術,所用到的感測器一般都會有激光測距儀、視頻攝像頭、車載雷達、速度和加速度感測器……這部分也是一台智能車輛最燒錢的部分,現在國內各大高校里動輒上百萬甚至幾百萬的試驗車,都是基於普通的轎車開發的,車子本身並不十分貴。
但是感知技術並不是說我有錢加裝個上百萬的雷達,搞幾個高清攝像頭就可以的,由於各個感測器在設計的時候有各自的局限性,單個感測器滿足不了各種工況下的精確感知,想要車輛在各種環境下平穩運行,就需要運用到多感測器融合技術,該技術也是環境感知這一大類技術的關鍵技術所在,目前國內這方面和國外的主要差距也集中在多感測器融合方面。
- 決策技術
在輔助駕駛或者自動駕駛技術中,完成了感知部分,接下來需要做的是,依據上一步感知系統獲取的信息來進行決策判斷,確定適當工作模型,制定相應控制策略。這部分的功能類似於給車輛下達相應的任務。例如在車道保持、車道偏離預警、車距保持,障礙物警告等系統中,需要預測本車與其他車輛、車道、行人等在未來一段時間內的狀態,先進的決策理論包括模糊推理、強化學習、神經網路和貝葉斯網路技術等。
- 路徑規劃
智能車輛有了行駛任務,智能車輛的路徑規劃就是在進行環境信息感知並確定車輛在環境中位置的基礎上,按照一定的搜索演算法,找出一條可通行的路徑,進而實現智能車輛的自主導航。
路徑規劃的方法根據智能車輛工作環境信息的完整程度,可分為兩大類:
- 基於完整環境信息的全局路徑規劃方法;例如,從上海到北京有很多條路,規劃處一條作為行駛路線即為全局規劃。如柵格法、可視圖法、拓撲法、自由空間法、神經網路法等靜態路徑規劃演算法。
- 基於感測器實時獲取環境信息的局部路徑規劃方法;例如,在全局規劃好的上海到北京的那條路線上會有其他車輛或者障礙物,想要避過這些障礙物或者車輛,需要轉向調整車道,這就是局部路徑規劃。局部路徑規劃的方法包括:人工勢場法、矢量域直方圖法、虛擬力場法、遺傳演算法等動態路徑規劃演算法等。
- 運動控制
規劃好了行駛路徑,接下來就需要控制車輛沿著期望的軌跡行駛,這就是運動控制部分需要完成的內容。
運動控制包括橫向控制和縱向控制,簡單來說橫向控制就是轉向控制,縱向控制就是速度控制, 現在研究比較多的是橫向控制,所運用的方法主要包括滑膜控制、模糊控制、神經網路控制、最優控制、自適應控制和純跟蹤控制等。
通俗的講就是,橫向控制為給定一個速度,通過控制轉向達到車輛沿著預定軌跡行駛的目的;而縱向控制目的是為了滿足車輛行駛過程中的速度要求,有時候還需要配合橫向控制達到滿足車輛在軌跡跟蹤的同時,還需要滿足安全性、穩定性和舒適性的目的。因為車輛是一個特別複雜的系統,橫向、縱向和垂向都有耦合關係的存在,因此就需要對智能車輛進行橫、縱向,甚至橫、縱、垂向的協同控制。由於其耦合關係的複雜性,所以說智能車輛運動控制的協同控制技術,也是該部分的技術難點。
大致先寫這麼多,各位看官,看完了給個讚唄。。。
無人駕駛車 是一個完整的軟硬體系統。硬體系統除了常規的汽車的配置還涉及到專用於無人駕駛技術的感測器,比如攝像頭,雷達等。每個公司設計無人車的思想不盡相同,因此軟體演算法更是難以概括。
前面的很多回答已經提及了很多關於無人駕駛車整體所需應用到的技術模塊,今天就讓我來細講關於實現無人駕駛車演算法的部分吧!
數學知識和編程基礎當然是必不可少的。
- 數學知識有大學數學基礎基本就可以入門啦,學過大學數學代表你懂得求導,微積分,線性代數和概率論等知識。此外,有大學數學的素養,當你遇到新的數學問題時也能快速找到學習方法。
- 在編程基礎中 Python 是非常友好的,Python 易於學習和使用,擁有大量的庫,能夠快速的把你的思路和想法實現。不過當你想把這些演算法移植到硬體設備上或者涉及更低層的方法時你就不得不用 C/C++ 啦。
更多的專業知識比如機器學習,有時我們需要先定義這是一個分類問題還是回歸問題,再設計解決問題的方法;如果我們設計了一個模型,我們也要用機器學習的方法來評估模型的穩健型等。另外還有計算機視覺,圖像處理和深度學習。
在無人車涉及到的如此多的技術中,計算機視覺和圖像處理是不可或缺的一部分。以優達學城無人駕駛車工程師(英文) 這門課程總共有3學期,先以第1學期中涉及的到的演算法來舉例說明。
1. Project1 道路線檢測
在這個項目中,需要使用 Python 和 OpenCV 來檢測圖片中的道路線,涉及到的方法有顏色選擇,切圖(ROI, region of interest selection),灰度處理,高斯模糊,邊緣檢測和霍夫變換直線檢測。如果能夠識別一張圖片中的道路線,那麼對於行駛中的車輛上攝像頭實時採集的圖像也可以實時分析。
(項目成果:LaneLines)
2. Project 2 交通標誌識別
無人車也是要懂得交通規則的,所以識別交通標誌並根據標誌的指示執行不同指令也非常重要。這個識別交通標誌的項目就需要使用深度學習(卷積神經網路)的方法來完成。
3. Project 3 高級道路線檢測和車輛檢測
高級的道路線檢測需要計算相機校準矩陣和失真係數對原始圖像的失真進行校正;使用圖像處理方法,將圖像進行二值化處理;應用透視變換來糾正二值化圖像(「鳥瞰視圖」);檢測車道並查找確定車道的曲率和相對於中心的車輛位置;將檢測到的車道邊界扭曲回原始圖像;可視化車道,輸出車道曲率和車輛位置。
還有一個非常有意思的方法是行為克隆(Behavioral Cloning),你在遊戲模擬器中開車,並收集道路圖像和方向盤角度等信息,然後搭建一個模型,讓它來學習你開車的方法。最後效果如何不僅取決於模型的質量還取決於你開車的技術,你能明顯看到模型開車的方式中有自己的習慣,這裡有一段我做的項目成果(https://www.bilibili.com/video/av7880273/)可以參考!
感謝 Udacity 學生 @楊培文 投稿,歡迎進行交流討論~
推薦幾本書吧:
智能汽車:先進感測與控制
亞馬遜鏈接:《智能汽車:先進感測與控制》 李力,王飛躍, 李力、郭偉、楊柳青【摘要 書評 試讀】圖書
第一本無人駕駛技術書
京東鏈接:《第一本無人駕駛技術書》(劉少山,唐潔,吳雙,李力耘)【摘要 書評 試讀】- 京東圖書
Driverless: Intelligent Cars and the Road Ahead
亞馬遜鏈接:Intelligent Cars and the Road Ahead (MIT Press): Hod Lipson, Melba Kurman: 9780262035224: Amazon.com: Books
一般而言,無人駕駛系統一般有三大模塊
1.環境感知模塊
無人駕駛汽車是通過感測器來感知環境信息。比如攝像頭、激光雷達、毫米波雷達以及工業相機是用於獲取環境信息;而GPS等用於獲取車身狀態的信息。當然還需要通過演算法提取出有用的信息。
2.行為決策模塊
行為決策是指無人駕駛汽車根據路網信息、獲取的交通環境信息和自身行駛狀態,產生遵守交通規則的駕駛決策的過程。
用人話說就是規划出一條精密的行駛軌跡,然後無人駕駛車就可以跟著這條軌跡走。
3.運動控制模塊
運動控制模塊是根據規劃的行駛軌跡和速度以及當前的位置、姿態和速度,產生對油門、剎車、方向盤和變速桿的控制命令。
無人駕駛技術實現上有兩大派系
無人駕駛的實現路徑大概有兩大派系,一派是以谷歌為主的互聯網公司,一派以特斯拉為首的汽車製造商。
谷歌的藍圖是無人車完全取代人來駕駛,把無人車看成機器人,所以沒有方向盤、油門和剎車。
谷歌無人車頂上是約8萬美元的64線激光雷達(Lidar)。它在高速旋轉時發射激光測量與周邊物體的距離,再根據距離數據描繪出精細的 3D 地形圖,並跟高解析度地圖數據相結合建模,幫計算機做決策。
由此可知,這條技術路線的關鍵是對周圍環境的模擬和3D地圖數據,而谷歌在這方面有深厚的積累。
而特斯拉的計劃是從機器輔助駕駛進化到完全自動駕駛。所以技術上逐步實現自動剎車、定速巡航、自適應巡航等,最終完全自動駕駛。
特斯拉 Model S主要是靠攝像頭結合計算機視覺,特斯拉輔助駕駛使用的硬體包括前置攝像頭、前置雷達(相對廉價的毫米波雷達)、12個超聲波感測器。
那麼自動駕駛汽車涉及哪些技術呢,下面是一些通用的技術:
- 訓練一個自動駕駛的決策模型
行為決策是指根據路網信息、獲取的交通環境信息和自身行駛狀態,產生遵守交通規則的駕駛決策的過程。這個解決方案可以是現在很火的深度學習,來實現模仿性學習(Behavioral Cloning)。
- 識別並跟蹤障礙物
這個問題的解決方案是感測器融合演算法,利用多個感測器所獲取的關於環境全面的信息,通過融合演算法來實現障礙物識別與跟蹤,常用的演算法包括卡爾曼濾波法等。
- 根據周邊信息,在地圖上定位車倆
在地圖上定位汽車,這一塊實現的差異很大。由於民用GPS誤差過大,不能直接用於無人駕駛。
有一類定位是通過激光雷達使周圍物體和自車的距離的精度達到厘米級,配合三維地圖數據可以將車輛定位至幾厘米~ 十幾厘米的程度
還有一類通過還計算機視覺的方案來定位。
- 從相機中識別行人
從相機中識別行人是一個計算機視覺問題,需要利用攝像機識別出物體(在這裡是人),這裡有單目,也有雙目的方案,可以調用OpenCV的一些包來實現。
- 車道識別
車道識別也是計算機視覺問題,有成熟的道路檢測演算法( lane finding)。
- 車輛的自適應巡航控制
車輛的自適應巡航控制(ACC)是在定速巡航控制的基礎上,通過距離感測器實時測量本車與前車的距離和相對速度,計算出合適的油門或剎車的控制量,並進行自動調節,這一塊有不少成熟的方案。
- 讓汽車在預定軌跡上運動
讓汽車在預定軌跡上運動是一個機器控制和規劃問題,一個難點在於躲避突發障礙之後動態路線規劃。
作為智能汽車的眼睛,現在有三種
攝像頭
毫米波雷達
超聲波雷達
ps:谷歌的全自動駕駛測試車用的是價格昂貴、結構複雜的遠距感測系統LiDAR(激光雷達)。
一般一輛智能車上會有十幾個甚至幾十個這樣的感測器
三種類型的感測器,各有優點以及缺陷,三種配合起來,協同工作,一個近距離,一個遠距離,一個圖形參照,防止各種天氣干擾造成之前特斯拉撞到橫著的卡車上面的悲劇。
對於若干感測器傳輸過來的信號,面對如此龐大的數據量,要去處理,需要一個強大的處理器。
但是你又不能把超級計算機搬到車上來,所以就要用到『』雲『』處理。
這種前提下傳統汽車企業失去了優勢,而谷歌,百度這樣的互聯網公司,就帶著先天的優勢進入到這行,這也是很多人看好互聯網企業做自動駕駛的原因。
自動駕駛技術分5個檔次,最高的5,就是完全智能,放心大膽的讓車自己開。
但是現在我們才到2,部分車到3,現在努力往4衝刺,5還遙遙無期。
現在最值得指望的,1特斯拉,2谷歌,3·······百度?
本人在博世汽車駕駛員輔助部門工作 對自動駕駛的技術有以下幾點認識
1 自動跟隨前車加減速 遇到障礙物或者人會緊急制動 (這個已經很成熟了 產品也已經市場化了)
2 道路識別 標誌識別 車道自動保持 盲點檢測 變道輔助 自動泊車(部分較為成熟 有待提高)
3雲網路接入 道路交通數據共享 (也已經較為成熟)
感測器,主要是雷達,其他的都是輔助工具。
然後就是數據處理系統。
其他高票答案回答的很全了,我也有很多汽車行業的朋友,想轉行從事ADAS領域,藉此做一個總結。
目前幾大零部件供應商在國內主推ADAS系統,即高級駕駛員輔助系統,該系統是自動駕駛的初級階段。通常,該系統既包含攝像頭也包含雷達,當然也可以是分開的。竊以為未來至少5年內都將處於自動駕駛初級階段。汽車行業的人裝行做ADAS,完全沒有任何問題,技術都是通的。
硬體
當前24GHz雷達主要應用在BSD上,77GHz雷達多用在前向障礙物檢測上。因此熟悉毫米波雷達工作原理,能夠獨立設計雷達Layout的人絕壁是專家,該技術也是當前國內稀缺的。其實想讓雷達工作並不難,但是如果保障雷達高質量的工作,沒積累、沒經驗,那就呵呵了。所以可以看到某些公司中調雷達的都是叔叔阿姨們,靠得全是經驗。
攝像頭相對雷達硬體雖然複雜,工作原理卻相對簡單。
軟體
軟體必然是ADAS的重中之重,因為項目大多是從Base項目上移過來,因此大多數時候不需要從頭開發,但是需要能夠修改客戶相關的部分軟體來完成實際項目。
由此,懂得CAN、Flexray、乙太網等車身網路知識的人才必然很吃香。
網路診斷和Bootloader,也被稱為汽車行業萬金油崗位,在ADAS中也很重要。
當然,隨著國內對AutoSAR的熟知,能夠基於AutoSAR架構設計軟體,也是一項很實用的技能。
演算法
演算法是ADAS的核心,無論是雷達相關的ACC/AEB功能,還是攝像頭相關的LDW/TSR/HLA...等功能,目前極度缺乏資深人才。這些功能背後涉及到一些基礎演算法:例如目標檢測與識別,Kalman濾波,馬爾科夫鏈、神經網路,深度學習等。對這些演算法的積累與鑽研也是未來的一個重點。演算法也應該是區分ADAS與其他領域的關鍵。
測試
軟體測試、系統測試等。
另外,需求管理絕對是任何行業和領域中都要重視的技能。
工作休息之餘所寫,難免有疏忽之處,歡迎指正交流。
1、駕駛輔助系統(DAS):目的是為駕駛者提供協助,包括提供重要或有益的駕駛相關信息,以及在形勢開始變得危急的時候發出明確而簡潔的警告。如「車道偏離警告」(LDW)系統等。[2]
2、部分自動化系統:在駕駛者收到警告卻未能及時採取相應行動時能夠自動進行干預的系統,如「自動緊急制動」(AEB)系統和「應急車道輔助」(ELA)系統等。[2]
3、高度自動化系統:能夠在或長或短的時間段內代替駕駛者承擔操控車輛的職責,但是仍需駕駛者對駕駛活動進行監控的系統。[2]
4、完全自動化系統:可無人駕駛車輛、允許車內所有乘員從事其他活動且無需進行監控的系統。這種自動化水平允許乘從事計算機工作、休息和睡眠以及其他娛樂等活動。[2]
從旁觀者角度聊聊自動駕駛!!!
自動駕駛的技術說的多了,技術層面也是看的驚為神技,百無聊賴。今天小弟就以淺薄的認識,從技術推動產業反推下這個問題。
從開始接觸自動駕駛到自己找資料看,一個場景經常在腦海中反覆出現。
未來一天,奮鬥多年的風風擁有一份在核心CBD的工作,正值下班時刻,風風掏出自己的華X手機,查看到自己高配的百度DU-100無人車已在充電樁充電完成,在寫字樓地下停車場L口等待風風上車。上車後突然想到自己還有一封工作郵件沒有發出,打開車內家庭書房模式,完成工作後發現昨晚看的一部電影沒有看完,轉換為VR家庭影院模式,前擋風變成了一面巨屏,風風沉浸在電影中,無人車在道路上賓士。道路上的車,車內的人都在進行各式各樣的娛樂活動。
拉回現實,可以想像,汽車未來將成為生活中另一個綜合性場所,結合文體娛樂休閑大保健各式活動,既可以在歸家途中繼續工作搬磚又可高歌一曲量販式KTV。想著科技在為這一天的到來飛速前行,就不禁內心有點小激動。
從產業和商業角度說,上面描述的場景在未來實現時候,將惠及到多少創意和產業,自動駕駛車中可以搭載的場景性應用,VR電影,VR k歌,遊戲等各種小空間內容性產品。從硬體產業來看,前擋風會變成柔性顯示屏還要再車內疊加光學器件,車裝需要雷達感測器等等。
不管內容還是硬體,無人駕駛技術能不能帶千億級市場,我想分分鐘的事吧?可能還小看了他的規模能力。
下面不扯淡了,聊點簡單的乾貨。
一、從行業發展角度去追蹤,自動駕駛的商業格局應該呈現以下路線:
FLAG1: L4-L5的自動駕駛應該是AI(人工智慧)的第一個產業級應用。
第一個問題,什麼是L4-L5的自動駕駛?
這是個好問題,如果從駕駛的角度,開個三崩子和開個有正常倒車提醒功能的車都算是自動駕駛了,專業來講這屬於L0-L3層級中的L0和L1,這個層級的技術要求駕駛是需要人類參與和協助的。而L4-L5是高度自動化和完全自動化的駕駛進程,駕駛過程無需人的參與和協助。所以這個領域也是各大巨頭短兵相接最激烈的地方。
從目前產業發展和各大製造商以及科技巨頭的布局看,總體呈現如下態勢:
1、由於L4-L5的自動駕駛涉及範圍較廣,其主要實現的基礎在於AI的演算法。所以未來L4-L5的自動駕駛競賽的看點只在中美之間。
2、L3水準下應該是德系車的天下,中國人民最愛的土豪車,別摸我,大奔和奧迪功底紮實,之前走ADAS(高級輔助駕駛)技術路線,承包L3水準下的江湖,當然也不排除和巨頭的深入合作,畢竟功底在那擺著。
3、L4-L5的水準就要看各大巨頭了,說白了就是AI演算法的競爭,造車的事可以交給傳統生產商,就像百度和北汽的合作(懶得吐槽)。在這高水準的競技中,兩軍前鋒是谷歌和百度,蘋果好像還沒搞清楚這個事,可能還在研究iPhone8用多大的屏幕。緊隨其後的是新入局的Uber和滴滴。網約車公司是具有數據優勢和最迫切需求的。
當然還有特斯拉,特斯拉是較早做新能源車的,在新能源車的硬體上是有優勢的。同時特斯拉商用最多的,事故也出的多。更介於L3-L5之間的模糊區間,特斯拉的優勢在於強大的產業。但如果以現有技術路線進行L5級別競爭,特斯拉還是處於劣勢。
總結一哈哈:
L5 谷歌PK百度皇城決戰 蘋果懵逼、Uber爬坡
L3-L5 特斯拉很強勢
L3 BBA的江湖
二、AI發展的前景成為共識,但是自動駕駛發展的加速度僅靠AI驅動嘛?不是,那自動駕駛的外驅動在哪了?
FLAG2:
自動駕駛的外力驅動有兩個:V2V立法和行業標準PK前者體現為強制性的V2V標準。先解釋一下V2V,V2V就是Vehicle-to-Vehicle,俗稱車聯網。車聯網世界裡車要和車對話,用什麼統一的通信技術?用什麼統一的交通識別方式?各層的介面標準是啥?都是需要立法才能解決這些標準的問題。
V2V搞定了V2X(車連萬物)就不遠了,現階段,相關的輔助技術如實景地圖,導航數據,網路安全已在各專業公司具有不錯的技術積累,屆時可以直接搭載。強制性的V2V標準將加快車聯網的構造,為自動駕駛打造好生態圈。
行業標準PK就體現在雷達為核心的器件標準,說到雷達可能有人會問:MDZZ,自動駕駛和雷達有什麼關係?雷達能看紅綠燈嘛?搞個攝像頭不就行了?
我:哼!Naive !
之前記得谷歌試駕時被後面的司機啃過屁股,為了躲沙袋蹭剮過大巴等系列事故。這些駕駛的應激機制問題都指向激光雷達的不成熟。
通俗來說 激光雷達就是無人車的眼鼻耳,它能根據周圍物體的光反射建立環境的三維地圖。但由於研發和製造成本非常高,現階段技術又處於相對壟斷階段,工業級產品的價格也相對較昂貴,所以激光雷達的標準也得有量產能力後由市場決定,說明了就是誰量產出來誰決定。這也是限制自動駕駛汽車普及的一個重要方面。
如上圖:Alphabet旗下的無人駕駛公司Waymo宣布:將LiDAR感測器的成本降低90%,並於近期在一輛克萊斯勒商務車上進行了展示。Waymo首席執行官約翰·克拉夫茨克表示:這一突破使得Waymo能夠將這一技術帶給數百萬消費者,Waymo由原Google自動駕駛汽車項目獨立而來,該項目又為Google在無人車上拿下一個高點。
作為自動駕駛重要輔助用品,激光雷達的突破和工業級的量產將會帶來可觀的市場訂單和成全一家獨角獸企業。目前來說,64線雷達成品價格的降低將會推動無人駕駛快速前進。圍繞在無人駕駛周圍的產業鏈,如實景地圖,導航數據和汽車電子等等產業的爆發都是可以預見的,從產業發展速度來看,淘金的真沒有賣鏟子的賺的快!
三、整合車身來說,還有什麼需要突破和創新的技術點?
回顧16年,16年是新能源電池爆發的一年,很多鋰電池公司的年終報表都異常漂亮。儲能技術的積累突破也是大家在無人駕駛市場大膽進軍的信心。新的電池,新的充能方式,眾多的雷達感測器,還有V2V通信模塊,以上種種不管是在新能源車上還是自動駕駛汽車上,傳統汽車的走線模式肯定不能招架的。
所以新車的線束模式將大尺度顛覆,關於線束模式如何改進,下次再聊,相信等車聯網和激光雷達成熟後,巨頭深厚的AI演算法加上工業級別更完美的線束模式將使得無人車的性能更優越,體態更優美,讓你一眼高潮,情不自禁,靈魂脫體!
讓我們期待無人駕駛車在道路飛馳的那一天,相信不會遠了!
風起時難
電影縱貫線,黑科挖掘機。情短,忘卻長!
自動駕駛我覺得至少要等物聯網普及才能夠脫穎而出,在物聯網下,無論是自動駕駛汽車,還是非自動駕駛汽車,車與車之間都能之間通過網路聯繫,提前就能預知車的行進方向,產生魚群效應。
怎樣使每一車輛可控,答案是將汽車行駛在一張我們能夠感知的網路當中。否則,無論你人工智慧多麼厲害,都是僅僅在最大程度模擬人類的駕駛習慣,只能單方面決策。但是有物聯網+感測器,就能根據對方車輛的一手位置數據,更加可靠地去調度我自己本身的車輛。
要物聯網就要用到ipv6地址,國家還沒有開放,估計要等很久,因為這觸及電信三巨頭的IPv4資源售賣的巨大利益。壟斷往往阻礙人類進步
1、感測器技術:自動駕駛汽車上,前後左右裝有認識周圍環境、道路、交通狀況的各種感測器。光學攝像頭包括單攝像頭、多攝像頭,多普勒雷達包括短距離雷達、遠距離雷達,還有激光雷達就是車頂上那個旋轉的機器,GPS定位裝置,等等,構成汽車認識環境的眼睛。
2、晶元技術:也就是能夠處理多個感測器採集的數據,並能整合的類似小計算機的超級晶元,使汽車的「總計算機」體積、成本大為減小,並能應用於汽車成為可能。否則汽車裡將沒有人坐的地方、老百姓也買不起這些龐大計算機群的汽車。
3、操作系統:計算機控制系統將處理結果與操作硬體結合起來,實現加速減速、剎車停車、變向避讓,以及人機對話等等。無人駕駛汽車具備了替代人工操縱的能力。
4、網路技術:無人駕駛汽車要能上路,必須具備與互聯網、區域網聯絡和識別功能,包括車與車的聯絡對話、車與衛星通訊、車與天氣預報的聯絡、車與交通指揮網的聯絡,才能正確識別和選擇道路、正確服從交通警察的指揮、正確決定通過交叉路口、正確避讓危險和安全行車。
總之,萬里長征剛走了第一步,距離進入百姓家庭,還相當遙遠。比如,那個車頂上老是旋轉的東西就讓人感到很不雅觀。汽車製造商真的搞無人駕駛,自己把自己推給了晶元公司、計算機公司、網路公司,淪為裝配廠的一員,也是很不情願的事。
我個人理解: 超聲波雷達、激光雷達、紅外雷達、 gps 、攝像頭+openCV、 輪速感測器(abs感測器)、10dof的陀螺儀+磁場+氣壓+加速度計。。。普通精度的模塊都很便宜,車上用的這種高精度的估計就比較貴了。。。
大了說即感知+決策
主要涉及的有計算機視覺(包括重要的LIDAR技術等),機器人操作系統(ROS),路徑識別,雲計算…往細了說就很多了比如人工智慧。
按李德毅院士的說法,無人駕駛車輛歸根結底是輪式機器人。
如果汽車自動駕駛技術得以成熟,座椅將扮演很重要的角色,下邊這篇文章是對未來自動座椅設計的介紹
自動駕駛與自動座椅更般配!
自動駕駛設計的技術,其實很重要的一點在於自動駕駛技術處於的等級,處於不同等級下的自動駕駛涉及到的技術差別很大。
很多人終於弄清楚自動駕駛與輔助駕駛的區別是從特斯拉車禍事件之後。在那之前,所有人都將自動駕駛與輔助駕駛之間加了一個等號,認為這兩者是相同的,然而,事實上,美國國家公路交通安全管理局(Nation Highway Traffic Safety Administration, NHTSA)已經制定了一個非常嚴謹的自動駕駛分級系統。該系統將自動駕駛等級分成了5個等級,而美國汽車工程師協會則制定了更為嚴謹的6級分類法:
在兩套分類系統中,兩個組織第一級到第三級的分類標準都是一致的:
第零等級無自動化:車輛系統對汽車沒有控制權,僅僅能提供提醒的功能和基本的輔助,如夜視功能,倒車影像、車道偏移警告等。目前此類功能以及發展得相當成熟,且大部分車輛都可實現此功能,
第一級別駕駛支援:系統有少量的控制權,但只有單一功能,如加減速或轉向控制,且駕駛員可隨時接管。相應的功能包括:定速巡航,自動巡航功能和自動緊急剎車功能。和第一等級一樣,目前此類功能已經能廣泛應用到多數車輛上,且價格已經開始下降。
第二級別部分自動化:車輛基本可以實現自動駕駛,系統可同時接管加減速及方向控制兩個功能,但駕駛員亦然需要時刻關注車輛情況,如眼睛需要注視前方,雙手需要放在方向盤上,一旦有意外情況,駕駛員需要立即接管車輛。此類功能包括自動跟車功能,車輛可自動調節車速以及與前車的距離等。這個功能也是目前特斯拉等主流輔助駕駛車輛所處於的階段,但價格尚高,未能普及。
第三級別有條件自動化:系統接管絕大部分控制權,駕駛者僅在部分條件下需要接過控制權,此功能下駕駛者大多數時間下不需要關注駕駛情況,僅需要在系統提示的情況下進行接管。在此等級下,車輛的主動駕駛者變成了系統,而人類駕駛員變成了輔助者。這個級別也是目前多數傳統汽車廠商的短期實現目標。
NHTSA的第四級和SAE的第四、第五級自動駕駛等級都屬於完全自動駕駛,而這也是所有廠商的終極目標。在此等級里,駕駛者不需要執行任何操作,只需要告訴車輛目的地。而兩套分級系統的不同在於,SAE在自動駕駛實現環境上作出了區分,而NHTSA則沒有。在SAE的分級中,在有限條件下能實行完全自動駕駛的系統是第四級系統,如前文提到的馭勢科技的工廠,園區自動駕駛車輛,而第五級別的自動駕駛為全環境自動駕駛,暨在任何環境下都可以實現的自動駕駛。
關注「世寧創投」」公眾號並回復「自動駕駛」獲得SAE自動駕駛分級規則原文
http://weixin.qq.com/r/Djk3M2vEg6P-KS9Qb2yK (二維碼自動識別)
蘋果公司玩了個大跨界,承認自己正在研發自動駕駛車輛,且與美國相關部門寫信溝通,對這一新興產業給出規範建議以及反饋。
信件出自蘋果產品誠信總監 Steve Kenner 之手,對此美國國家公路交通安全管理局(下稱「交管局」)局長並未透露任何項目細節,只提到蘋果「投放巨資研究機器學習和自動駕駛,且對自動駕駛系統在包括交通運輸在內的多領域的前景充滿期待」。
在信中,蘋果呼籲監管部門迅速採取行動,執行新 的安全規範,並探討如何靈活運用現行法規。Kenner 稱之為「提高監管靈活性」。該機構將促進創新,並鼓勵「發展救生技術」。
毋庸置疑,從信中可知蘋果的野心遠不止於美國本土。Kenner 鼓勵監管部門和諸如聯合國歐洲經濟委員會等國際組織合作,共同 商討「和諧發展的自動駕駛技術」。
蘋果公司「大跨界」,承認正在研發自動駕駛軟體層面的相關演算法也是比較重要部分,涵蓋數據融合、閉環檢測、數據壓縮等幾個方面。我們每周都深度學習一篇相關論文,有興趣的一起參加咯,鏈接http://imorpheus.maodou.io
推薦閱讀:
※對機器人或人工智慧的研究能幫助人類更了解自身嗎?
※當前深度學習和slam結合有哪些比較好的論文,有沒有一些開源的代碼?
※既然機器學習可以在某專業上超越人類,那人類的這個專業技能還有用嗎?
※如何看待 2019 年 CFA 考試新增 Fintech(金融科技)等科目?
※有什麼經典的關於遊戲 AI 設計的書嗎?