無人駕駛汽車事故責任該怎麼劃分?

生產商,銷售商,政府監管部門,事故雙方,分別需要承擔的責任及分析?


感謝邀請,

首先要先強調這個問題也是包括谷歌以及各汽車主機廠商發展無人駕駛的瓶頸。

對於百度谷歌為首的直接發展無人駕駛的陣營來說,這個問題會比特斯拉以及汽車製造商的自動駕駛陣營要更加迫切去解決。

因為我問要分清一個概念,在目前對智能駕駛的分級中,第三級是高級自動駕駛,也就是現階段特斯拉以及汽車製造商的發展目標,他們希望能從這個階段過渡到無人駕駛,這個階段里是人類可以進行干預的。

而第四級就是無人駕駛,谷歌百度希望能以人工智慧作為切入點來直接研發無人駕駛,在此級別內就不得有人類進行干預了,因而谷歌汽車內部取消外置方向盤剎車的裝置。

對於倫理問題來說,目前挑戰最大的就是第四級的無人駕駛,因為在第三級階段,汽車上的人工智慧應用並不如第四級,且現有技術也只支持在特定環境下實現自動輔助駕駛,因此出現問題誰來負責的問題並不具爭議,還是和以前開車是一樣的。

但第四級的無人駕駛就不一樣了,對於左拐撞死一個,右拐撞死兩個,不拐自己追尾的問題,包括谷歌在內也沒有辦法完美解決。因此在今年美國西南偏南的大會上,項目負責人Chris Urmson也表態將會調整一下谷歌之前的策略,首先在特定區域內實現共享經濟,而非以前的老子不完全做出來就不量產的態度了。我認為應該是他們也發現有些問題是真的沒有辦法直接避免。

沃爾沃雖然是自動駕駛陣營,但是也算是第一個吃螃蟹的人,說未來一切沃爾沃的無人駕駛汽車出事故,將由他們公司全權負責。

而在國內,今年兩會上李書福和李彥宏也都帶來了各自自動駕駛以及無人駕駛的立法議案,希望能填補國內智能駕駛方面的法律空白,應該也會將未來如何進行事故的判決起到推進作用。

而且在你提到的幾個角色里,應該還要再加一個,是保險公司。因此巴菲特就預言無人駕駛可能要搞垮保險行業,想想也有可能,可能後果會比較嚇人。

無人駕駛雖然看起來很炫,但要實現應該還有很長的路要走,感興趣可以交流,我目前主要在研究智能汽車及車聯網,主要是信息安全的問題。

感興趣可以關注一下我的公眾號:末離說:iov_dennischen

http://weixin.qq.com/r/4kNmfnzEGCFnrTgd9xbw (二維碼自動識別)

手打,之後會繼續更新補充,謝謝!


我覺得,從社會長治久安來考慮,應該讓開發自動駕駛程序的公司負責,相信用不了多久,那些不守交通規則的行人和電動車,就會被各大軟體公司修理到不敢違反交通規則。

君不見,早年間碰瓷的人有恃無恐。有了第三者責任險制度之後,碰瓷之後保險公司賠償,一幫專業人士治理下,碰瓷少多了。


就在上周,美國通用汽車公司對外宣稱,一旦他們生產的自動駕駛車發生事故,一切後果由公司承擔。

作為業內人士,我建議大家這樣的話不要信。通用之所以這樣說,只不過是為了讓消費者放心去買他們的車。其實,「一切後果由公司承擔」這句話有一個明顯的前提:必須是汽車系統方面的錯,公司才會承擔後果。如果不是系統的錯,而是駕駛員的錯,誰還會管你呢?只能怪自己一時懶惰,選擇了自動駕駛功能。

上圖:特斯拉在autopilot狀態下與貨車相撞,車主不幸死亡

太多的人在問一些諸如此類的問題:自動駕駛車會出車禍嗎?一旦出了車禍,誰來負責?如果不是乘客的錯,是應該由設計自動駕駛人工智慧的公司負責,還是打車的APP公司負責?還是做硬體的汽車生產商?今天這個帖子給大家一個正解。

L3自動駕駛車事故率最高

注意,L3自動駕駛車事故率其實比其他等級的自動駕駛車都要高。L3就是指自動駕駛中的第三級。通用公司即將推出的自動駕駛車也是第三級。之所以L3容易出事故,主要是因為車裡仍然需要人類駕駛員,一旦駕駛系統需要人類接管,而此時駕駛員在忙著打電話聊天,後果可想而知。(擴展閱讀:為什麼老牌汽車製造商終將失敗 )

一旦出現緊急情況,車主必須馬上從自動駕駛系統手中搶回控制權

L5自動駕駛車會出車禍嗎?會!

就算是有了最先進的系統,達到了自動駕駛第五級,再也不需要真人司機,自動駕駛就徹底安全了嗎?自動駕駛車雖然不會犯人類司機的錯誤,但這絕不代表自動駕駛車就絕對安全。行業內的人應該都知道,現在矽谷還沒有哪一家公司敢站出來說,自己的車絕對不會出車禍。(閱讀自動駕駛分級【獨家】帶你讀懂美國自動駕駛最新路測規範)

Uber自動駕駛車搶黃燈,發生車禍

原因很簡單:自動駕駛車出車禍的原因和人類車禍完全不同。人類出車禍的主要原因是駕駛經驗不足、判斷失誤、酒駕、疲勞駕駛、打電話,等等等等。自動駕駛車確實不會犯這些錯,但是會面臨一堆新的問題。

1. 視覺識別錯誤。突然路上飛來一群鴿子擋在馬路中間,自動駕駛車會急剎車,後面的車很可能來不及反應,就撞上來。如果是真人司機,就不會在乎鴿子,不會急剎車。

2. 路徑規劃錯誤。極端的例子就是,可駕駛區域出現錯誤,誤以為橋下的河也可以開進去。

3. 系統被黑。車被黑客遠程控制。如果電池瞬間耗光,乘客信息被盜取,後果不堪設想。

4. 定位失誤。如果是真人司機,只要睜開眼睛看一看就知道自己是不是開在馬路中間。如果是自動駕駛車,就需要依賴localizer定位。一旦失靈,車就會尷尬的停在高速中間,危險程度可想而知。

5. 死機,或是信號失靈。

6. 其他真人司機想試試這輛自動駕駛車是不是真的可以躲避車禍,就故意超車或者擠你。

7. 旁邊的車正好發生車禍,失控撞向你,你根本躲不掉。

8.其他原因

你終於可以大膽地說:「不是我的錯」

雖然車禍最終難以100%避免,自動駕駛車仍然是出行最佳選擇。以下列出自動駕駛車在不可避免車禍中表現出的優勢。

1. 無需交警調解

一旦發生事故,自動駕駛車會自動記錄下肇事車輛信息,不用擔心對方逃之夭夭。如果乘客受傷,救護車也會自動趕到。如果車被撞壞了,另一輛替補車會在幾分鐘之內趕到。

2. 事故是誰的責任,一秒鐘查清

每輛自動駕駛車上都配備著無數的攝像頭和其他感測器還有強大的GPU。汽車每一秒的所見所聞都有詳細記錄。

3. 同樣的事故不會再次發生

人工智慧的最大優點就是,一旦學會了一項技能就不會忘記。如果你教給它:如果再遇到一群鴿子,就大膽的開過去,它就會記住,以後再也不會犯同樣的錯誤。

4. 大部分情況下,你都會得到應有的賠償

自動駕駛車不會違反交通法規。出了車禍,如果不是汽車系統的問題,一般都是對方的責任。就算是系統出了故障,法院自然會判汽車生產商或是人工智慧公司有責任。你此時的角色只是受害者,因為你從未乾涉過駕駛過程。

結語

這個世界可能完全沒有任何車禍嗎?可能,但是應該不是在你我的有生之年。至少在近五十年里,還做不到你所謂的「100%」安全。的確,有了完美的人工智慧,自動駕駛確實可以避免很多交通事故。但是永遠有你想不到的情況,是AI力所不及的。就算是最好的航空公司,也一樣難以避免天災人禍。但是不能因為未來0.01%的車禍,就不去挽救如今每年因交通事故喪生的130百萬人。

谷歌Waymo自動駕駛車和一輛闖紅燈的車相撞


上面末離的回答挺全面。我稍微再說2點自己的看法。

1. 如果無人駕駛車出了事故,還是按照現有的法律法規來判定事故責任劃分,無人駕駛的車輛由車廠來負責賠償,而車廠可以從保險公司購買保險。由於無人駕駛車輛的事故率遠低於有人駕駛的車輛,保險公司可以獲得更高的利潤,因此保險公司會非常樂意為無人駕駛車輛上保險。

2. 對於緊急情況下無人駕駛車輛決策的倫理問題(即向左撞還是向右撞的問題),我想這個問題未來不僅僅會出現在無人駕駛這個領域內,其他涉及到高級的人工智慧(代替人來做決策)都會多少涉及這個問題。倫理問題可能沒有唯一正確的答案,想想未來戰場上的無人武器,那比無人駕駛的問題更大。此外,我認為倫理也是隨時間和科技的發展在不斷演化的,人是適應性很強的物種。當技術成熟的時候,很可能我們能給出合理的、大家能廣泛接受的方案。


以目前我的經驗來看....只要出了事故..都是我們掏錢

不論我們開沒開自動駕駛..

因為測試車各種手續很麻煩...


以下是我的建議規則,如何界定責任需要其他措施,比如黑盒子之類的設備

1、事故時司機干預操作,司機負責

2、司機未乾預操作,可以證明自動駕駛技術有責任時(比如違反或者達不到相應的的國家標準或者行業標準),自動駕駛服務商負責

3、司機和自動駕駛技術都無責任時,由司機、自動駕駛服務商、車輛廠商強制分擔的保險承擔民事賠償責任,初期技術推廣期,廠商應該會替司機(或者說乘客)分擔成本,不過行業穩定後,按享用相應服務承擔相應責任的原則,應該會有要求購買強制保險吧,類似現在的交強險


車主首先承擔責任,再與廠商協商責任承擔,但很長一段時間內政府不會允許全自動上路,即便允許,保險公司也一定會出條例,限制使用自動功能。


兩年前的回答:http://www.zhihu.com/question/27874030/answer/38467118

有個前提觀點:無人駕駛汽車對傳統汽車是逐步替換,還是階躍式普及?個人偏向於後者。


推薦閱讀:

造成余旭跳傘失敗的僚機信息為什麼沒有披露?愛國主義教育不應該成為麻木人心 放棄追責的工具吧?
如何評價政府在「東方之星」號沉沒事故中的表現?
2014 年上海外灘跨年踩踏事件該如何判定事故責任?
現在對天津塘沽爆炸傷亡人數的質疑有道理嗎,為什麼很多人不信媒體報道的傷亡人數?
天津發生爆炸,為什麼莫斯科也同時發生爆炸?

TAG:交通事故 | 事故 | 無人駕駛車 | 責任 | Google無人駕駛汽車 |