如何看待特斯拉自動駕駛的第一起命案?

這起事故發生在佛羅里達州中部的一段公路,當時一輛拖拉機挂車正在橫穿高速公路,迎面撞上了疾馳而來的特斯拉Model S。雖然是車輛行駛的責任,但在自動駕駛啟動的過程中就連駕駛員當時也沒有做出任何反應,沒有對出現的拖拉機有任何反應,甚至沒有一個應急的剎車。

因為車速過快以及橫穿馬路的荒唐行為,特斯拉的Model S幾乎是鑽到了拖拉機的下方,前擋風玻璃是遭受撞擊的首個部位,於是,悲劇就這樣發生了。特斯拉方面之後聲稱,「在天空明亮光線的照射之下,自動駕駛功能和駕駛員都未能發現挂車的白色面,因此剎車功能就沒有啟動。」
http://mp.weixin.qq.com/s?__biz=MjM5MTE3NzkwMA==mid=2652580228idx=1sn=66ffeb4c1e7bb40e5d03147c0b72a9c2scene=0#wechat_redirect

——————————————————————————————————————————
我想問一下為什麼白色的車就看不出來了?這車上沒有雷達么?自動駕駛都只用一個攝像頭判斷?


特斯拉官方是這樣解釋的:

當時 Model S 行駛在一條雙向、有中央隔離帶的公路上,自動駕駛處於開啟模式,此時一輛拖挂車以與 Model S 垂直的方向穿越公路。

強烈的日照條件下,駕駛員和自動駕駛都未能注意到拖挂車的白色車身,因此未能及時啟動剎車系統。

由於拖挂車正在橫穿馬路,且車身較高,這一特殊情況導致 Model S 從挂車底部通過時,其擋風玻璃與挂車底部發生撞擊。

? 事故解析圖(請看箭頭方向):V01 為拖車,事發時正要左轉;V02 為 Model S,發生碰撞事故後向右側滑行。

這個事故目前有幾個爭議點:


1、為什麼 Autopilot 沒有識別出拖車?

我們已知 Model S 上的 Aupilot 系統是這樣配置的:來自 Mobileye 的 前置攝像頭,位於擋風玻璃中間;來自博世的毫米波雷達,位於保險杠下方;12 個超聲波感測器,分布在車身四周。由於量產成本的原因,Aupilot 並沒有使用 Google 無人駕駛車上的激光雷達進行探測。


根據官方給出的條件,強烈的日照和白色車身是 Autopilot 系統不能檢測出障礙的原因之一,另外由於車身過高,我們推測這可能超出雷達的探測範圍。


馬斯克在推特上補充說明,雷達把拖車檢測為路面上的交通信號,而沒有啟動剎車。

如果用通俗的話來解釋,我們可以這麼認為,Autopilot 的「視力」並沒有達到足夠的距離、角度和精度來判斷這次事故。


就在十幾個小時以前,Mobileye 的一名高管 Dan Galves 說出了此次碰撞事故的真正問題,目前的防碰撞技術或自動緊急剎車系統,只適用於跟車(追尾)狀態,並僅為跟車出現的問題而設計。也就是當車輛橫向駛入時,目前的 Autopilot 系統本身就不具備足夠的判斷能力。


Dan Galves 強調,目前這一代的技術並沒有能力處理好 5 月 7 日發生的這起事故。Mobileye 會在 2018 年推出相關技術(橫向駛入車輛的檢測)的產品,歐洲新車安全評鑒協會(Euro NCAP)將在 2020 年才加入相關安全評級。

這個聲明是對特斯拉的有力打臉。要知道特斯拉強調的是這個事件發生的是一個「特殊情況」,並把自動駕駛超過 1.3 億英里後才發生的一次事故和美國機動車平均 9400 萬英里發生一次事故做比較,暗示了這個概率發生的必然性。不少人接受了這個設定。


但 Dan Galves 的解釋卻說明了 Autopilot 應用的有限性。這個事故並不屬於交通事故的特殊情況,而是出現橫向車輛相遇的必然情況。


另外,也有業內專家稱,使用激光雷達和 V2V 車輛通訊技術有可能避免本次事故。但由於並沒有可靠的實驗數據支持,該觀點僅作參考。


更令人玩味的是,昨晚 Mobileye 剛剛宣布將與 Intel、寶馬共同展開無人駕駛方面的深度合作。


2、Autopilot 是不是存在名字上的誤導?

特斯拉的自動駕駛功能不是第一次發生事故。


2016 年 5 月底,一名歐洲特斯拉車主在高速上追尾一輛大貨車,在社交媒體上引發關注。此外,在美國,一輛特斯拉撞上了停靠著的拖車,一輛則是在 5 號州際公路上撞上行駛中的車輛。這些事故都發生在 Autopilot 開啟的狀態下,所幸,這些事故都沒有造成人員受傷。


馬斯克曾經在發布會上說過 「It』s autopilot not autonomous 」,連他自己也不認可將 Autopilot 譯為自動駕駛,用我們常用的中文解釋,更準確的說法是輔助駕駛。然而這不僅僅是翻譯的問題,在英文環境下,車主們在社交媒體上的傳播也將 Autopilot 神化了。


在 5 月 7 日事故中身亡的車主 Joshua Brown,曾是特斯拉的一名熱情粉絲,多次在社交媒體上發布 Autopilot 啟動狀態下的跟車視頻。馬斯克曾經在推特上轉發過他發布的特斯拉成功避讓卡車的視頻,事故發生後該轉發推特已被刪除。

特斯拉一邊傳播 Autopilot 成功使用的視頻案例,一邊強調駕駛員記得雙手緊握方向盤,這不免讓人產生矛盾。在對技術沒有深刻了解的基礎上(事實是相關的技術科普也尚未普及),粉絲們更傾向於追捧特斯拉,誇大 Autopilot 的適用性。這時,車主記住的不僅僅是名字,而是場景化的功能。


在這樣的重複傳播下,Autopilot 變相成為了自動駕駛的代名詞。消費者不會記住你的提醒,而只愛新奇的功能。這是特斯拉必須注意的狀況。


相比之下,傳統車商就顯得謹慎多了。不論是使用「自動巡航」和「輔助駕駛」等名詞,還是在推廣相關技術的量產,都頗為小心。


3、Autopilot 該在什麼條件下處於開啟狀態?

特斯拉在本次事故的公開聲明中提到,「特斯拉自動駕駛功能在默認狀態時是關閉的,而在被開啟前,駕駛員都會被要求選擇接受這一系統是一項新的技術和處於公開測試階段,車輛才能開啟自動駕駛功能。」


姑且不論這有多少免責聲明的意味,我只有一個疑問,既然這項技術還處於公測階段,為什麼不限制它的開啟條件,讓它在成熟狀態下啟用,而是完全把主導權交給了駕駛員。


比如,特斯拉駛入雙向車道時,為避免有橫向來車,限制開啟。


比如,在十字路口這種複雜路段,限制開啟。

另外,特斯拉是否提醒,Autopilot 自動駕駛功能使用不當,有可能致人死亡?


無論如何,這起事故作為第一起自動駕駛死亡事故,給每個從業者都敲響警鐘,在新技術的應用上不能冒進,在新技術的宣傳使用上要尤其謹慎。哪怕是極小的概率,也要學會尊重每一個生命。


4、5 月 7 日發生的事故,為何特斯拉現在才對外宣布?

本次事故中,特斯拉在法律範圍內的責任歸屬,交給美國國家公路交通安全管理局 NHTSA 的調查,在沒有得到準確的數據之前,不作斷言。


我們先來看看特斯拉的宣傳事故。


本次車禍發生在 2016 年 5 月 7 日,直到兩個月後的 6 月 30 日,在美國國家公路交通安全管理局 NHTSA 著手調查之後,特斯拉才公開了這則消息。


可以推測的是,特斯拉的公關一定不希望在事情沒有調查清楚之前,擴大輿論影響,造成特斯拉的負面危機。但在面對這樣全行業都會關注的事故面前,主動、及時、準確才是官方應有的真正態度。


假如,在 6 月 30 日之前,發生第二起死亡事故怎麼辦。在面對技術的有限性時,第一時間告知使用風險,是廠家應有的責任。


有用戶在推特上詢問馬斯克為什麼沒有及時公布消息,並沒有得到馬斯克的回應。

在推崇創新案例的時候,特斯拉一直是行業的榜樣。在走向更大的成功之前,特斯拉也出現了很多困難。我當然希望祝福能給行業帶來變革力量的廠商,但成熟的態度應該是,更加及時的處理問題,準確的傳達產品功能,勇敢的承擔責任。


Joshua Brown 在事故發生時,雙手並沒有握在方向盤上。就算特斯拉不是直接原因,也是間接原因。承認這一點,特斯拉才會走得更好。


---

微信:42號車庫 (長文首發)

微博:@42號車庫 (短新聞、八卦、黑歷史)

知乎專欄:42號車庫

更多內容瀏覽我的主頁


特斯拉和車主都要各打大板,特斯拉叫這套系統為「Autopilot」,名字上就引導大家覺得這就是個自動駕駛系統。鑒於規避法律風險,特斯拉也是說行駛時雙手不能離開方向盤,可是特斯拉的行為一直在暗許車主這樣來做。現在像賓士S級等高端車也有類似的「自動駕駛」功能,但賓士是不允許你雙手離開方向盤太久。特斯拉的Autopilot卻允許駕駛者雙手離開方向盤,某程度等於在默許這種做法。特斯拉車主的行為也是「直至死方休」,網上瘋傳那些車主打開自動駕駛,然後丟下車去做各種奇離古怪事情的視頻,比如爬到后座。在這次事故中,車主在看哈利波特也是個荒誕無比的行為。特斯拉沒有去糾正這種錯誤,估計它也是希望大家將Autopilot當成自動駕駛來看,這樣更符合特斯拉的高科技形象。廠商沒有做正確的引導,甚至有給錯誤暗示的嫌疑。車主過分崇拜,真以為車子能自動駕駛,不惜拿生命去試。兩者都有錯,事故發生可以說是個必然。想想在網上那些視頻就覺得害怕,出事只是遲早問題。

我也反對那些因噎廢食的觀點,不能因為出事故而否定自動駕駛。可是也不提倡特斯拉這種宣傳手段,實際上Model S的「自動駕駛」能力並不高,說白了就是ACC自動巡航、車道保持和交通標識識別等現有功能的一個整合。像謳歌的車道保持,也能做出同樣效果,就是車子能平滑地保持在車道中間,而不是像以往車道保持那樣,蹭到路面畫線再救回來。只不過像謳歌這種傳統汽車廠商,對此比較謙虛,或者說比較謹慎,仍不敢用自動駕駛之類的概念來包裝。我也體驗過特斯拉Model S的「自動駕駛」,它靠的畢竟是那堆電子系統,用38號的話來說就是這些電子系統沒長眼。看見紅燈它是不會自動停車,通過路口也不懂得自動減速。另外,識別度還有待提升,比如停在路邊的計程車有一小塊車角露在你所行駛的車道上,這種情況ACC經常會不懂得剎車。還有一些盤橋彎,Model S也是無力回天。這次撞上大貨車前沒有任何制動行為,就是識別度方面的問題。


留了太大一個隱患,隨著時間推進,類似的案例只多不少。里程數那個事情,我不知道特斯拉的數據,是不是算上自己的測試車在全球各地試驗場里跑的,總之這玩意,適用範圍很有限,免責的說辭也太勉強。算了,有愛這玩意的就用吧,我們應該尊重,先驅么?就是別讓自己成了先烈,那就不好玩了


節選自我的專欄文章

自動駕駛的岔路口:激光雷達存廢之爭與出行的未來 - 知乎專欄

特斯拉的 Autopilot 本質上是輔助駕駛技術,但是一些司機抱有過高信任,由此導致了一系列事故,創造了自動駕駛領域的大部分頭條新聞。美國汽車工程師協會(SAE)將自動駕駛分為了從1到5的5個級別,以區分輔助駕駛和無人駕駛技術,一般水平的文章談到這條就結束了。

要了解自動駕駛的未來,我們先回顧一下新聞。

  • 特斯拉Autopilot系列事故盤點

2015年10月14日,特斯拉公布7.0版本軟體,為已經售出的特斯拉Model S開啟了Autopilot功能,出盡風頭,並且被《麻省理工科技評論》評為「2016年十大突破性技術」。

2016年1月20日,京港澳高速河北邯鄲段,特斯拉Model S撞上一輛正在作業的道路清掃車,交警判定負有事故主要責任的司機高雅寧死亡。死者家屬起訴特斯拉索賠1萬元,理由是營銷過程中存在誤導行為,而不是特斯拉的產品漏洞。(這次事故直到2016年9月14日才由中國中央電視台曝光)

2016年5月7日,美國弗羅里達洲的Joshua Brown開著一輛自動駕駛模式的Model S,超速撞到正在垂直橫穿高速的白色拖掛卡車,車頂被削平,駕駛員死亡。事發時車速74mph,而該路段限速65mph。Joshua Brown從海豹六隊退役之後,開了一家互聯網公司,上傳的Autopilot測試視頻曾經被Elon Musk轉載,觀看次數幾百萬。

對於這次事故,各路專家都給出了諸多可能的解釋,例如:

  • Musk本人的Twitter:雷達精確的測算了出了前方有一個巨大的障礙物,但是因為卡車過大的反射面積以及過高的車身,從毫米波雷達的角度來看,它更像是一個懸掛在道路上方的交通指示牌/橋樑/高架路,因此被忽略了。
  • 長焦鏡頭無法看見整個車輛,所以誤認為飄在天上的雲。
  • 天空太亮,攝像頭對於大面積白色物體很難從圖像中提取特徵點。
  • 超聲波雷達測量距離過短(2米左右),在高速行駛中沒有任何反應時間。

這次事故的關注度最高,而另外幾次事故雖然沒有死亡,但是對於特斯拉的打擊更嚴重,因為以上借口完全無效。

2016年5月底在瑞士的事故:Autopilot模式Model S的前方,一輛汽車變道,避讓一輛靜止貨車。Model S似乎檢測到前車變道而輕微加速,但是沒發現靜止貨車,因此輕微加速地撞向了貨車。

這次撞到的靜止貨車不是大面積白色,而是藍色和黑色,並且有複雜圖案,也就是說特斯拉似乎可以撞上任意顏色和形狀的靜止障礙物。

在這次事故之後,前谷歌深度學習創始人、時任百度高管和 Drive.ai 聯合創始人丈夫的吳恩達在Twitter表示了對於特斯拉的批評 「It"s irresponsible to ship driving system that works 1,000 times and lulls false sense of safety, then... BAM!」。(提供1000次正常,但給人虛假安全感的駕駛系統是不負責任的)

2016年8月3日,中國的 Qunar_大羅納爾多駕駛的Autopilot模式Model S再次撞到了停靠在路邊的故障車。程序員車主投訴特斯拉公司誇大自動駕駛儀功能誤導買家,涉嫌虛假宣傳後,特斯拉在其中國官網上刪除了「自動駕駛」、「無人駕駛」等字眼,改稱「Autopilot 自動輔助駕駛」。特斯拉公司發言人表示:「特斯拉正不斷對各方面進行改進,包括翻譯方面。過去幾周,我們正在努力解決跨語言產生的差異。這個時機與當前事件或相關報道無關。」

2016年8月7日德克薩斯州的Mark Molthan駕駛的Model S在處於Autopilot模式時偏離公路並撞上路邊的護欄,他表示「Autopilot給了你安全的錯覺。我不準備充當一個試飛員。汽車沒有發現彎道,直接衝上了護欄,而且並沒有停下來—— 實際上在第一次撞上護欄後,它仍繼續加速。」雖然車主沒有打算起訴特斯拉,但他的保險公司Chubb Ltd.可能會起訴。

2016年9月28日在德國,一輛特斯拉汽車與旅遊大巴發生車禍,無人死亡,特斯拉公司認為事故不可避免,與Autopilot無關。

德國交通部部長要求特斯拉停止使用「Autopilot」這個詞,為此特斯拉聘請了第三方調查公司對於車主進行調查,結果98%的受訪車主都明白他們在啟動Autopilot之後還要繼續保持對汽車的控制。考慮到特斯拉已經累計銷售十幾萬輛,那麼也就是說有2%,也就是幾千名車主在事故接連不斷的半年之後,仍然可能會對自己和他人的安全造成威脅。

這幾千名過分勇敢的小白鼠可能造成什麼後果呢?2016年11月16日,投資人和內容創業者李笑來老師在一篇閱讀量達到4萬的文章中提到他利用特斯拉的自動輔助駕駛功能在 「甚至開始在路上「寫」文章了」 ,特斯拉中國區如果還沒請李笑來老師更正這個危險的示範,就太欠缺嗅覺了。

除了上面的中國區虛假宣傳爭議之外,特斯拉的 Autopilot 還惹上了事故之外的幾個麻煩:

  • 正在調查事故的美國國家公路交通安全管理局(NHTSA),表示特斯拉要求客戶簽署的保密協議可能會妨礙調查。對此特斯拉在博客的解釋是:要求用戶簽訂的「Goodwill Agreement」,目的是防止特斯拉給客戶折扣或者免費保修在法庭上對公司不利,協議並沒有提到NHTSA或者政府,後來特斯拉修正了協議的措辭。
  • 美國證券交易委員會(SEC)正在調查特斯拉是否違反證券法規,因為特斯拉公司以及Musk本人在5月18,19日出售了一批特斯拉公司股票,但並未將5月7日的Autopilot致死車禍向投資者及時進行公開披露。對此特斯拉在博客的解釋是:特斯拉公司在5月16日把事故告訴NHTSA僅為了通報事實。特斯拉調查員5月18日到達事故現場並回收車載數據,5月最後一周才完成公司內部調查。
  • 律所Hagens Berman在組織對於特斯拉 Autopilot 2.0 未實現承諾功能的集體訴訟,該事務所曾經起訴大眾和梅賽德斯。

以上幾次車禍大部分是撞了靜止車輛或者障礙物,弗羅里達事故中,垂直於特斯拉前進方向的拖車,在攝像頭來看也是靜止的,距離判斷錯誤,所以特斯拉或Mobileye面對靜止障礙物有識別缺陷,如果有激光雷達參與,至少不會加速撞上。特斯拉的系列車禍一次又一次證明了Mobileye攝像頭識別的局限性,以及感測器融合併不是讓程序員加班一兩個月就能讓電腦學會的,那麼我們接下來看看特斯拉是如何應對事故的:

2016年7月17日,Musk在Twitter表示正在與其雷達供應商博世公司合作,改進雷達軟體。"Btw, want to thank both Bosch and MobilEye for their help and support in making Autopilot better. Please direct all criticism at Tesla.」 通俗地說是:博世和Mobileye的小夥伴都幫了大忙,事故不是他們的責任,我們一家來背鍋。雖然Musk承認特斯拉沒用好毫米波雷達,把責任自己攬下來算是口頭給Mobileye面子,但是這個解釋更體現了攝像頭的局限。

2016年7月26日Mobileye宣布停止與特斯拉的未來合作,Mobileye 認為他們的產品功能本來就是有限的,是特斯拉激進的許可權開放和宣傳導致車主的使用超出了功能極限。

2016年8月25日,特斯拉對於Autopilot漲價500美元,由原來的2500美元上調至3000美元。司機們給特斯拉的beta版軟體提供數據,特斯拉非但不給補貼,在系列事故之後漲價而不是退款,這個動作確實很有個性。「退款對於Musk很難接受,於是就用早買佔便宜來安撫小白鼠用戶」,對於這次小漲價,以上解讀並不容易否定。

2016年9月11日,特斯拉宣布Autopilot的 v8.0固件升級,「用雷達看世界」,把視角不足的毫米波雷達作為汽車感知的主力,攝像頭作為輔助,特斯拉官方博客的原話是雷達作為主感測器,並且無需攝像頭進行圖像識別確認(can be used as a primary control sensor without requiring the camera to confirm visual image recognition.),說得如此斬釘截鐵,我們可以認為特斯拉對於利用現有硬體在短時間內搞定圖像識別或者感測器融合已經徹底不抱希望

此外特斯拉還將建立Autopilot「懲罰機制」,如果司機在一個小時內對要把手放在方向盤上的警告忽略次數超過3次,系統就會自動關閉,只有在車熄火重啟後,系統才能重新被激活。後來的限制更加嚴格:「即使在自動駕駛中,駕駛員也需要雙手緊握方向盤。當駕駛員的雙手離開方向盤幾秒鐘後,系統便會自動報警;如果警告被忽視的話,Autopilot將自動退出。」

通過功能縮水,我們可以預測,未來Autopilot責任事故會很少發生,因為駕駛員被迫緊握方向盤,所以發生任何事故都無法指責Autopilot(其實歷次Autopilot事故的責任原本都是司機的,只不過以前特斯拉過於激進,沒有限制司機放手而引發了爭議)。

2016年9月16日,Mobileye 補刀Elon Musk曾向Mobileye保證,在使用Autopilot時,駕駛員不會被允許雙手離開方向盤。然而,最終結果並非如此。Mobileye表示,在2015年5月兩家公司的產品規劃溝通過程中,該公司曾就特斯拉系統的安全性表達過關切。

2016年10月19日(臨時安排發布又跳票兩天之後),Musk宣布所有的特斯拉新車將標配「具有全自動駕駛功能」的硬體系統——Autopilot 2.0,包括8個攝像機、12個超聲波感測器以及一個前向探測雷達,比上一代快了40倍的英偉達GPU運行特斯拉自研神經網路,最終將實現SAE 5級自動駕駛。升級的結果是新系統從3000美元漲到了8000美元(未來解鎖可能會更貴)。

總結:

在上述系列事故發生之前,Elon Musk一向認為激光雷達並不適合汽車場合,被動光學手段(俗稱攝像頭)加一個前向雷達就足夠了。他澄清並不對激光雷達抱有偏見,SpaceX在龍飛船與國際空間站對接時候會使用激光雷達,然而他認為激光雷達在自動駕駛並不必要。

「I don』t think you need LIDAR. I think you can do this all with passive optical and then with maybe one forward RADAR,」

事故發生之後,Musk仍然認為現有的硬體技術完全滿足無人駕駛要求,2019年可以實現完全自動駕駛,10-15年內,大部分正在使用的轎車、卡車都會被自動駕駛車替換,並且仍然表達對激光雷達的否定,加強了對毫米波雷達的重視。然而以上事故,理應引起自動駕駛領域激光雷達重要性的討論:

被動視覺早於主動雷達的狀況,在歷史上也曾經出現:著名美國心理學家伯爾赫斯·弗雷德里克·斯金納在二戰時,曾研究過利用訓練過的鴿子控制的精確制導炸彈。當時的雷達技術剛剛起步,無法制導,所以由彈頭容納3隻鴿子,通過喙啄擊屏幕控制炸彈,當三隻鴿子出現分歧時,少數服從多數。大家都能想像訓練困難,所以最終被成熟的雷達技術所取代。

用現在自動駕駛和人工智慧領域的時髦術語來描述,這就是二戰時期的 「多目攝像頭被動光學導航,由低功耗的超大規模生物神經網路深度學習進行控制,三重冗餘設計,妥妥的五級自動駕駛(只不過交管部門管不到)」。用更加聳人聽聞的說法,這就算自主殺人的機器人了(雖然完整動物塞進去和用缸中之腦控制導彈本質上是一樣的)。

雖然如今的車用攝像頭性能大概能追上鴿子的眼睛,訓練電腦比訓練鴿子先進很多,但是我很好奇哪家的車載人工智慧優於鴿子。區分貓狗或者診斷癌症照片的時候,用計算機視覺是責無旁貸的。但是要判斷障礙物距離,激光雷達顯然更可靠。激光雷達成本降低之後,深度學習的價值可能縮水。

條件允許主動感測的時候,為什麼要被動呢?


當時問了這個問題發現無人問津,就到另一個問題下關注和回答了,今天回頭髮現這裡也很多優質答案。
貼一下另一個問題下我的回答:
如何評價《無人駕駛第一起命案——特斯拉製造》? - 知乎用戶的回答

現階段自動駕駛的實施條件還不成熟,主要的原因在於識別軟體對於路況多樣性的應對不足。很多自動駕駛車輛長時間的安全自動駕駛距離都是在高速公路等特定路段刷出來的,而谷歌則是通過限制車速來和工作人員的保護來保證安全性。
特斯拉前段時間直接開放了自動駕駛套件的軟體更新,雖然這套軟體要求要駕駛員雙手把住方向盤才能開啟,初衷是希望司機是能夠集中注意力來規避軟體無法準確判斷的問題。但是在實際情況中並非如此,雖然很多人做到了雙手把住方向盤,但並沒有好好注意路況。
比如:
視頻封面Tesla Model S自動駕駛!司機睡得香甜—在線播放—優酷網,視頻高清在線觀看視頻

這次事故發生的外在環境,雖然並非常見情況(正好遇上白車,正好又是高底盤的貨車),但對於自動駕駛系統來說也是不可忽視的。
特斯拉的自動駕駛系統依靠攝像頭和毫米波雷達兩套系統收集路況信息(評論中有提到超聲波雷達,因為超聲波的探測距離較短,只有幾米,一般用於探測車輛周邊環境,實現自動泊車,不適用於這種需要長距離探測然後提前實施制動的情況,所以當時沒有提到),兩套系統同時識別,將路況信息融合,從而幫助計算機得到更準確的結果。
攝像頭信息的識別主要依靠計算機視覺的判斷,而在汽車行駛的高速情況下,必然要犧牲一定的準確性。
同時,攝像頭圖像的識別很容易被外界因素比如光照,天氣,路面紋路等因素影響。在這次事故的一些報道中就提到過是因為特斯拉將前方白色貨車與天空認作一體而沒有分辨出貨車,在光照條件的變化下這種情況是可能發生的。
為了避免這種狀況的發生,自動駕駛系統還會採用雷達來探測前方目標從而避免攝像頭單獨判斷的失誤。但在Musk自己發布的信息中說道這次雷達將前方的車輛當做了高速公路上橫跨道路的標牌,所以沒有進行剎車。
所以綜合現在得到的信息,這次兩套系統的識別都出現了問題,造成了自動駕駛的判斷失誤。
而作為最後一道保障的司機,也並沒有踩下剎車,這就釀成了悲劇的發生。

這次的事故影響的則不僅僅是特斯拉本身 ,這讓以前所有自動駕駛汽車宣傳的低事故率的努力被打破,雖然馬斯克稱特斯拉的自動駕駛使用了1.3億英里才發生致命事故,這比起一般的統計數據要更安全(個人認為這個數據有並不能嚴謹的說明問題) 但至少在這次事故中,人們更關心的問題是,命案以及卡車的損失是由誰來負責?是特斯拉還是司機呢?責任如何分配一直是自動駕駛裡面關於法律道德爭辯的一個關鍵點,這次事故讓這種討論更有實際意義。其他的問題比如自動駕駛的倫理問題也會被更多的討論,如果在一種極端的情況下,需要撞死行人來保證車內人的安全,那車輛應該做出怎麼樣的選擇,而責任應該由誰來承擔呢?

自動駕駛是未來發展的趨勢,在未來我相信它對交通事故率,城市的擁堵,排放,都會有很正面的影響,但現今各項技術還處在初級的研究階段,個人認為特斯拉過早的開放更新是操之過急了。


我無力也無意改變其他人的看法 只說自己

我還是會以我現有的方式使用autopilot, 至死方休

很多人應該都知道,作死並不是作了一定會死才叫作死,作死從來都是概率性的。使用Autopilot 能把死亡率從1/60m英里(全球),1/97m英里(美國)降低到1/134m英里,在合適條件下使用autopilot顯然是使旅程更加安全的做法,這時人工開車才叫作死。因此,堅持不作死依然發生意外話,那就至死方休吧。也是因為同樣的原因,我每次登上飛機時都不會恐懼。


我只想說兩點,

第一按照報道,這輛特斯拉在撞到拖車(原文寫的很明白是18輪重卡拖車翻譯成拖拉機的自己扇耳光)後仍然沒有剎車直到撞到很遠的柱子才停住。請問有哪位人類司機撞車了還死踩油門?

第二為毛特斯拉非要等NHTSA調查才公布這一消息?按理說要是自己很占理的話有啥可慌的?


並不是不看好自動駕駛的未來,但是目前離成熟的距離還很遙遠。涉及的東西太多,有技術本身的,有城市道路建設方面的,也有相關法律法規的完善方面的。
開過gm下面某旗艦車型,自適應巡航狀態,在高速上被別人超車,距離有點近,突然被急剎。。幸好有驚無險。雖然這還不能算自動駕駛,但是這項技術對於道路狀況的識別和判斷,還遠遠達不到人腦的水平。
個人覺得,真正的自動駕駛要在整個社會普及,必須每一輛車都是自動駕駛並配以高度智能化的交通監測系統,讓計算機之間打交道。這也就要求自動駕駛的成本必須降下來,不再是某些豪華品牌或者頂配車型才有的配置,如果一方是電腦,一方是人腦,這種交流的鴻溝是無法彌補的。簡單來說就是一台自動駕駛的車,對於對面一台人為駕駛的車的行為判斷,再怎麼也無法做到完全覆蓋。
自動駕駛概念風頭正勁,特斯拉出了這事,所以引起很大的關注。其實有位答主說的好,每次一項新技術取得進展,最歡呼雀躍的還是那些不明真相的群眾和媒體,但是只有工程師才知道這項技術的局限和他們的能力所不及。
自動駕駛,路還很長。不過對我來說,寧願這一天來得慢一點,因為很享受地板油和降檔超車這種最原始的機械感。哈哈。


這裡幾乎一邊倒的支持特斯拉,支持新技術是政治正確,但是拜託先去看看車評網對特斯拉自動駕駛的視頻,尤其是中文的,感受一下再做樂觀評價。


這東西的自動駕駛很容易在複雜情況撒手不管。駕駛上需要的臨場反映以現在的計算機演算法肯定模擬不了。現在的自動駕駛還是以路面劃線和前後車的相對位置做參考,依靠路適應車而不是車適應路。而且技術本身控制車距是強項,判斷路線和靈活變線這方面無能為力,簡單說就是路上遇到其它流氓司機,這東西的優先選擇是急剎躲避碰撞,但是其它情況它是完全無法判斷的,更不要說提前預判改變路線避免可能出現的困境。這樣的自動駕駛局限性太強,只能做個技術噱頭而已。


最近看到網上各種吹特斯拉的視頻就感覺這公司越來越不務實了:跟法拉利比直線只比前200米不看後段。「紐北跑不過秦,10米跑不過狗」 聽說過沒,你賽道能不能再短點,不如來賽狗啊?
另外媒體沒有告訴你比完電量狂掉的事實吧?還用只透露有利信息這種不入流的手法,這個手法是不是很熟悉?媒體給你玩這樣的手段總能把你忽悠的不要不要的,這次無人駕駛玩砸了就是他們這麼宣傳的結果,搞幾個傻子完全撒手,車裡歌舞昇平吹噓自動駕駛,讓人誤以為已經可以這樣開車了。營銷手段越來越像byd。

再說幾個我經歷的類似自動駕駛的例子,佐證之前的觀點:一次去試駕某帶acc自動距離保持的車型,試替哥開的很野蠻,在路上兩個前後車中間強行加塞進去,但是併線進行到一半,車子AI發現離前後車太近,立馬蒙逼,然後突然急剎...AI的這個行為是完全超出後車正常司機的預判的,畫面就和路怒族強行別車一模一樣的,後面的車主不知道怎麼問候司機家祖先呢。

另一次體驗某日系旗艦車型的自動駕駛,在高速上左一道,路面有右彎的時候,車會擦著左綠化帶飛奔,十分恐怖,而且路面上任何劃線變化都會放棄自動駕駛,這兩個特性一旦有機會疊加,基本就是撞護欄的結果。


認為這是個別現象以後技術還會有本質飛越的,還是有機會去試一下,看看實際路面完全放手特斯拉能給你幾成信心,就不難發現你們未免太盲目樂觀了,他們自己的工程師都不一定敢這麼拍胸脯。而且這次明顯是自動駕駛摔了個大跟頭,還沒有解決方案怎麼就被形容成科技發展不屈不撓的讚歌了呢?特斯拉科技樹是不是點對了還有待驗證呢。

總之這種大熱的炒冷飯技術很快就有現實潑冷水,前幾年路人皆知的3D列印現在風頭過了也沒啥人提了。每當有點疑似技術進展的時候,不了解技術的群眾最歡欣鼓舞,但是只有工程師才了解這項技術的局限和他們能力所不能及。

我認為50年內,開放路面上人們還不敢撒手讓車自己駕駛。

昨天竟然被一個新號「暴走三輪車」窮凶極惡的人身攻擊,然後又被舉報了。如果排除是科技瘋狗的話,難道特斯拉的5毛已經看上我這帖子了?


現在電腦還沒有做到很好的程度,目前我還是相信自己開車


直接上說明書。
本身就是輔助駕駛並且官方都說了駕駛員腰隨時接管。
特斯拉並非沒責任——前期宣傳故意迴避這一點,給大眾營造一種一邊睡覺一邊開車的錯覺,並且沒有過多的解釋。然後試駕時,店員就說的很清楚,官方不建議在馬路上開,高架和高速比較安全,並且人也要準備接管。
不過此次事故發生以後,特斯拉能找出目前所存在的缺陷,應該能對自動駕駛(輔助駕駛)有更大的提升。
此次事故關注度非常高,相信在不久的將來,我們會發現這一個里程碑式的事故。btw 作為提車一周新手女司機,並不敢開自動駕駛,大概目前還不夠信任。選配自動駕駛更大的原因是自動泊車和召喚功能。


作者:綠小水
鏈接:如何看待特斯拉自動駕駛導致致死車禍? - 綠小水的回答
來源:知乎
著作權歸作者所有。商業轉載請聯繫作者獲得授權,非商業轉載請註明出處。

這是自動駕駛發展過程中的 Driscoll moment。 英國的 Bridget Driscoll 是第一起汽車交通事故致死案例中的受害者。

首先,每一起交通事故,尤其是嚴重的致人傷亡的交通事故,都不能對責任分割妄下結論。還是要等專業機構的鑒定結果。我不是很贊同這個題目,「自動駕駛導致致死車禍」。這隱含了一層意思就是如果是司機駕駛而非自動,就完全可以避免。而根據特斯拉自己的描述是「在天空明亮光線的照射下,不管是自動駕駛系統,還是司機,都沒有注意到挂車的白色面板,所以剎車系統並沒有啟動。」(這是摘錄新聞,出處我還沒有查)。

另一個方面考慮,如果司機當時像駕駛手冊要求的那樣在監督自動駕駛以便隨時接管的話,那麼,如果他發現了險情,是會在第一時間採取措施避免的。當然披露的有限的信息之中不知道他是否儘力干預了,所以,並不知道如果是人類肉眼觀察,能否發現機器沒有發現的隱患。如果特斯拉的辯解屬實的話,那麼就不能完全算是自動駕駛致死,而是有不可避免的成分的。
在為死者哀悼的同時,相信車企也要汲取教訓改善系統,畢竟現在大家對自動駕駛的信心還很脆弱。傳統車企也會時不時犯出不可饒恕的錯誤導致大規模召回,隨之而來的抑或是技術進步,抑或是更完善的規則,或者兼而有之。

新聞中還提到(同樣,我沒有查證出處)「特斯拉方面在6月30日作出回應稱,這是S型汽車自動駕駛功能激活使用行駛1.3億多英里過程中遇到的第一起致命事故,而全世界平均每6000萬英里行程就會發生一起致命車禍。」這話就說的不對了,先不說統計上的每一億英里和僅有一億英里的偷換概念,你特斯拉是給中產及以上人群提供高價服務的,扯上全世界算怎麼回事,什麼非洲印度之類欠發達交通狀況糟糕醫療不及時等等全算進去,有點丟范兒吧。美國司機的表現也比6000萬英里高啊。 我之前寫文章 無人駕駛,我一直在盼望,你一直在拖延! - 綠小水的文章 - 知乎專欄 查到的是美國司機也是超過一億英里才發生致死交通事故。反觀特斯拉,其實是在人類和機器「同時」駕駛的情況下做到的,因為我們並不知道是否有人類及時干預避免了重大交通事故的情況。

總之,希望儘快給出第三方的調查報告。讓車主和車企都可以更清楚事情的全貌。


不明白為啥那麼多拿多少公里無事故來洗地的。最大的問題是這不是真正的自動駕駛,需要司機隨時接管,這就直接放大了安全隱患,高速上0點幾秒的反應時間能決定生死,司機一直自己開車的話注意力一直保持集中,關鍵時刻反應速度肯定比自動駕駛失效突然接管要快得多。所以這個事故里自適應巡航傻逼了之後,駕駛員根本沒來得及剎車。
這麼說吧,假如是正常司機開車,沒Autopilot功能,這起事故不可能發生(除非司機睡著了),但是它發生了,這不是Autopilot的問題么?事故失效分析不是這麼搞得啊親。
此外Tesla這東西既然不是自動駕駛,只是個自適應巡航,那還非起個Autopilot的名字,有故意誤導消費者的嫌疑。自適應巡航嘛,別的車企這類似的技術也有幾年了,到了Tesla手裡就被包裝成了高大上的自動駕駛, Auto Pilot。反正這種做法類似某水果公司的re-invented,實在是噁心。

答主在德國,感覺德國高速不限速路段的路況對自動巡航也又是個挑戰啊。不知道有人試沒試過車速180自適應巡航啥的還能用不?


這只是第一起,以後還會有的


看到了不少打著「Self-Driving」或「無人駕駛」事故致死的標題,引發不少關於無人駕駛的悲觀討論。


但事實並不是這樣。事故車輛啟用的 AutoPilot 並不能代替司機駕駛車輛,只是一種輔助駕駛功能,要求司機掌控方向盤而不是電腦。


這並不是一起無人駕駛汽車的交通事故,不要上綱上線總想搞個大新聞。


關於事故的具體介紹和 AutoPilot 需要駕駛員手握方向盤等使用條件,建議大家看下特斯拉官方聲明:不幸的悲劇,掌握一些基礎知識才能有效地討論。


事故的具體責任,還需要美國國家公路交通安全管理局調查後判定。


我覺得這個悲劇提醒了所有汽車公司——整個汽車行業押注的自動駕駛功能,應以何種形式提供給民眾?


#1 - 特斯拉不應在量產車上提供 Beta 版服務

特斯拉一直稱 AutoPilot 還處於測試階段,並不完善。


儘管特斯說明了 AutoPilot 啟用時駕駛員需要雙手握好方向盤,以及自動駕駛功能不能識別的一些情況。但很多用戶是普通人,並沒有能力來判斷,當時路況條件是否符合要求,或者自己是否適合使用 AutoPilot。


AutoPilot 的主要功能推出後,很多用戶認為它無所不能。不管是不是特斯拉宣傳過度,用戶對自動駕駛的理解失控了。各種瘋狂的 Model S 「大撒把」視頻一度風靡視頻網站。


嚇壞了的 Musk 多次口頭警告用戶,並在年初的一次升級里,限制了 AutoPilot 部分功能。但這項測試服務仍被保留在幾萬輛車上。


汽車這個關係到很多人生命和安全的產品上,特斯拉應該尊重傳統汽車公司對待安全的認真態度。汽車這個古老產品急需創新,但它不該擁有最高優先順序。


關於汽車的行駛和安全,不該存在 Beta 服務。


#2 - 放棄部分自動駕駛,等待完全自動駕駛

按照汽車產業的劃分,自動駕駛被分為四個階段:輔助駕駛、部分自動駕駛、高度自動駕駛和完全自動駕駛。


目前一些高配置汽車上,會有偏道提醒等功能,這屬於輔助駕駛。特斯拉的 AutoPilot 還屬於部分自動駕駛——這是風險最大的階段。


在部分自動駕駛下,要求我們開車時,一方面要相信雷達、感測器和自動剎車系統能對路況做出反應;另一方面還要求駕駛者精神高度集中,在自動駕駛功能失效時,接管對車子的控制。


但特斯拉忽視了人性。


一旦我發現 AutoPilot 總能很好的自動減速跟住前車,對機器建立起信任後,自己的惰性就會發生作用——啟動 AutoPilot 的情況下,雖然並不會大撒把,但也很難完全集中注意力,很難及時對每次路況做出反應。


可你又告訴我,別信賴它,它時靈時不靈。我的內心是崩潰的。


且不論我們普通人能不能做到這麼精分。在這兩種狀態下的切換,就需要幾十秒的時間。在發生意外的一剎那,根本來不及切換。


所以我認同谷歌的做法,開發出一輛完全依賴自動駕駛功能的汽車,不需要一個普通人在兩種模式下不斷切換。


即便是兩種模式切換,也是在人工駕駛(基礎輔助駕駛功能,不會讓人產生依賴)和完全自動駕駛界線清晰的兩個模式間切換。要麼我在開車,要麼機器在開車。避免半自動駕駛這種混合模式中,人性帶來的負面影響。


關於完全自動駕駛的實際應用,一直都有爭論,也有像中國大媽或電動兩輪車橫穿馬路這樣的梗。想要在全路況實現完全自動駕駛,短期內是不可能實現的。


在我們的日常生活中,可以先從特殊路況開始。比如只有在封閉道路如高速公路上才可以使用完全自動駕駛。在普通馬路上,要靠駕駛者自己判斷。這樣的話,完全自動駕駛更容易投入實際應用。


相應的責任也更容易劃分。完全自動駕駛時發生的事故,當然由製造商承擔責任;人掌控方向盤時,理所應當由個人承擔責任。


我的微信公眾號 速度荷爾蒙 會持續關注自動駕駛的案例和推進,歡迎關注。


更多文章:叭叭嗚 - 知乎專欄


投資者對特斯拉的激情並未受到本次事件影響。
從6月27號以來,特斯拉已經上漲了20%有餘

說明大家還是覺得司機自己作死


其實這是一件在我很來很正常的事情,新技術的產生都不會是十全十美的,不然軟體版本也不用從V1.0更新到V10.0了,微軟也不用三天兩頭打補丁了。

即使是像安全氣囊這種已經非常成熟的技術,也會出現問題,更何況是無人駕駛。在我看來,目前無人駕駛技術最好的Google,在道路上早已經測試了超過160萬公里,儘管Google的數據中心據稱每月可以模擬300萬英里的無人駕駛行為,其無人車還是依然在不斷地測試和學習中,

在測試過程中也經歷了不少交通事故,雖然都是小事故,而且事故責任認定為Google的僅有一起,但其事故率還是高於人為駕駛。據稱,搭載了Autopilot的特斯拉汽車目前已有約1.3億英里的行駛成績,不過這其中絕大部分里程都是車主在路上跑的,而不是在實驗室里測試的,其自動化程度也不及Google,功能上目前更多的還是在於車主提供便利,以及更好的安全應急反應,而非Google的以完全替代駕駛員為導向。所以,使用Autopilot的車主在使用其功能的同時,也是在幫助特斯拉做測試(刷數據)。

從產品安全的角度來看,無論是系統BUG還是光線問題造成的無法識別,特斯拉在其功能存在缺陷的情況下(未發覺)就發布了產品(還作為其賣點),這個鍋總是得背的,當然駕駛員還是應當負主要責任。儘管這很無奈,但汽車研發中進行的反反覆複測試,正是為了儘可能地去發現任何可能出現的問題。

有朋友指出,自動駕駛功能默認是關閉的

特斯拉自動駕駛功能在默認狀態時是關閉的,而在被開啟前,駕駛員都會被要求選擇接受這一系統是一項新的技術和處於公開測試階段,車輛才能開啟自動駕駛功能。根據選擇頁面的說明,自動駕駛"是一項輔助功能,要求駕駛員雙手始終握住方向盤"。此外,每一次自動駕駛啟動時,車輛都會提醒駕駛員"請始終握住方向盤,準備隨時接管"。系統還會時刻檢查以確保駕駛員雙手不離方向盤。如果系統感應到駕駛員雙手已離開方向盤,車輛則會顯示警示圖標或發出聲音提醒,並逐步降低車速,直至感應到雙手在方向盤上。

對於這樣的規定,一方面是功能的不成熟,另一方面是為了推脫責任,其把並不成熟的技術作為賣點投向市場本來就有風險,特斯拉在發布該功能的時候難道會不知道許多用戶不會遵守這個規定?特斯拉的選擇在於究竟是在實驗室里耗資巨大,花費數月乃至數年來尋找系統BUG,還是放生給客戶由客戶來當這個小白鼠。當然這或許也正是傳統汽車企業與科技企業之間的差異,傳統車企在這方面顯然更為保守。

Autopilot的推出是否操之過急我不得而知,但有一點可以肯定,如果特斯拉和傳統車企同步推出該功能,其競爭力將會大打折扣,甚至於處於劣勢。因此,由市場來檢驗和幫助技術的發展與成熟,就註定了要承擔發生問題時相應的責任,當然這也只是我個人的觀點。再者,我並不是在黑特斯拉,如果有錢,我也想買輛體驗下自動駕駛的功能(可惜沒錢)。自動駕駛的確在向我們招手,但它的到來未必是今天。
但是!這個事情無疑給某些鍵盤特斯拉粉,無腦贊特斯拉的人,狠狠的扇了一巴掌。


意味著我們正在見證百年汽車史的新時代,人類即將迎來逐步完善的自動駕駛。


其實,無人駕駛作為汽車未來發展方向這一點毋庸置疑。這次事故看似偶然,其實必然,它告誡我們,對於任何技術不能太樂觀,無人駕駛技術的發展之路任重道遠,必須步步謹慎,不能貪圖多快好省,畢竟人命關天,希望這種必然事故越來越少。


既然題目是【命案】,感覺結論已經定下來了。

不過還是要為自動駕駛說句話,科技是為人類服務的,她本身是中性的,決定善惡的是她的使用者,和使用方式。

特斯拉的系統不了解,
一般來講成像系統需要2個以上的攝像頭來做精準定位和距離判斷。
當拍攝環境不利時(風沙,豪雨,雪,霧等)識別系統很難分辨攝像頭拍下來的是什麼。
目前日系自動駕駛在上述環境下都是無法使用的。

成像系統拍下的東西需要程序去識別,主要通過色彩和形狀。【自動駕駛功能和駕駛員都未能發現挂車的白色面】是說的過去的。

評論里有人說我沒學過統計學,我就不爭辯了。


以下為原答案↓
------------------------------------------------------------------------------------------------------------
作為一個全程沒有參加特斯拉研發的閑散人員,我告訴您,還會發生第二起的。
哪有不出事故的機械。

但是!

目前已知的,由自動駕駛車輛造成的,人身死亡總人數為
1人。遠遠低於人類駕駛員。


推薦閱讀:

谷歌收購了 Boston Dynamics,該公司的機器人在業界屬於什麼水平?
在移動設備上「搜索」的重要性和 PC 互聯網一樣高嗎?如果不是,為什麼?
為什麼只是稍微 Google 搜索了幾次美帝藤校,隔天就有留學機構的諮詢電話?
修改 Google 產品中使用的頭像、資料都必須加入 Google+,Google+ 1.5 億用戶中有多少是通過這種方式獲得的?
新網站如何能快速被各大搜索引擎收錄?

TAG:汽車 | 谷歌Google | 汽車行業 | 自動駕駛 | 特斯拉汽車TeslaMotors |