無人駕駛出現人身傷害事故,誰來負責?是主機廠?駕駛員?還是?
當前,無人駕駛的科技研發正在全世界如火如荼的開展,無人駕駛技術倍受商業推崇,並被預測將成為繼個人電腦和智能手機之後的第三個全球商業價值潛力無限的科技消費品。
在人們的理想中,無人駕駛最大的優勢就是可以極大的降低甚至消除交通事故率,各種精密儀器持續監測,高精度三維地圖持續輔助,人工智慧完美處理運作,自動駕駛被認為將比人類駕駛員更靠譜,因為後者會出現操作失誤和人為錯誤,比如走神、酒駕、疲憊等問題。
無人駕駛安全嗎?
不安全!至少現在的技術還沒能達到可以讓人完全放心的地步。
這幾年,無人駕駛導致了一系列人身傷亡事故的發生。
美國當地時間2015年7月1日,美國谷歌公司一輛無人駕駛汽車遭遇首起造成人身傷害的交通事故。在谷歌總部所在地山景城進行測試的一輛無人駕駛汽車被另外一輛汽車追尾。谷歌稱,3名員工在事故中出現頸部扭傷,在醫院進行檢查後已正常上班。另外一輛汽車的駕駛員也稱頸部和背部有疼痛感。
據谷歌稱,這是自2009年以來無人駕駛汽車在190萬英里(約合306萬公里)測試行程中出現的第14起交通事故。谷歌曾表示,旗下無人駕駛汽車沒有引發過任何交通事故,在14起交通事故中,有11起是其汽車被其他汽車追尾。
2016年2月14日,在美國加州山景城(Mountain View),一輛谷歌無人駕駛汽車雷克薩斯RX450h試圖在一條較寬的車道上繞開一堆沙包時,與一公交車的側方發生碰擦,導致左前翼子板、前輪,和司機側感測器受損。雙方車輛中沒有乘員受傷。
2016年5月19日,一位歐洲車主在使用特斯拉Model S的自動駕駛功能時,車輛撞上了前面的貨車,所幸時速不到10km/h,所以沒有人受傷。車主表示無論主動巡航控制系統還是AEB自動剎車系統都沒有發揮作用。
以上事故,雖然沒有導致人身死亡,但也確實驗證了,無人駕駛技術在當前還並不能完全信任,而下面這兩起無人駕駛致死亡事故,則更加驗證了無人駕駛的不可靠性。
事故一:中國河北高雅寧案。2016年1月20日,高雅寧駕駛Model S進入京港澳高速,之後車輛一直沿最左端車道行駛。從其行車記錄儀中記錄下的畫面中可以看到,在車輛前方有一輛道路清打車停靠,並打有閃爍燈游標志。按常理講,Model S在看到前方有停靠車輛後應迅速轉到右側車道以避免事故,但這輛Model S既沒有更換車道,而且在碰撞之前也沒有減速和轉向的跡象,致使駕駛員高雅寧當場死亡。在事後交警的檢查報告中,也沒有檢查到剎車和轉向痕迹。隨後展開的事故調查過程中,駕駛員高雅寧的父親高巨斌發現事故中Model S的Autopilot很可能處於開啟狀態,因此,便以「誘導用戶」為名,起訴特斯拉中國銷售公司,認為其在營銷和推廣過程中過分誇大了Autopilot的功能。
事故二:美國佛羅里達州Joshua Brown案。2016年5月7日下午3時,Joshua Brown駕駛一輛 2015 款特斯拉 Model S 在佛羅里達州高速公路上與一輛垂直方向開來的挂車發生相撞。Model S 從挂車下面穿過時,擋風玻璃撞上了挂車的底部。之後 Model S 失控偏離公路,撞上了路邊的鐵絲網與電線杆。在衝擊中,Model S頂部徹底撞毀,Joshua Brown當場死亡,卡車司機Frank Baressi沒有受傷。
無人駕駛發生事故,責任在誰?
我們先看一下,特斯拉針對兩起無人駕駛致死案的解釋。針對中國河北的高雅寧案,特斯拉並沒有發表任何聲明,但在事故發生後,特斯拉中國官網對Autopilot系統的中文翻譯從「自動駕駛」改為自動輔助駕駛「。而針對美國本土事故,特斯拉的解釋是:白色卡車在藍天背景下識別不出,並且從特斯拉Autopilot的視角看,拖掛卡車側面是懸浮在地面上的,這種非常少見的情況導致了Autopilot系統疏忽,沒有啟動自動剎車。同時車輛碰撞位置為特斯拉的擋風玻璃,使得碰撞安全系統無法發揮作用,這直接導致了駕駛員的死亡
在這次事故中,所有的感測器都沒有發揮作用。特斯拉Autopilot中所使用的感測器是擋風玻璃中間的MobileyeEyeQ3視覺系統、前保險杠下方的毫米波雷達、以及車輛四周的12個超聲波感測器。
Mobileye此前曾宣稱,依靠強大的演算法,單目攝像頭就可以用在大部分輔助駕駛系統上。專註於無人駕駛系統研究的馭勢科技聯合創始人吳甘沙認為,無人駕駛需要全面考慮感測器的融合,而不是盲目相信演算法,這次如果用更好的視覺感測器或在更高的地方多裝一個毫米波雷達,事故或許就能避免。
吳同時表示,不贊成類似Autopilot的技術用於雙向道路,目前的成熟度還是主要用於封閉的結構化道路。輔助駕駛不是無人駕駛,Autopilot還是需要駕駛員密切注意路況和車況。
特斯拉對此事非常緊張,如果NHTSA裁定為特斯拉Autopilot系統出紕漏,將會直接導致召回,這對一直把Autopilot當賣點的特斯拉來說將是沉重打擊,也會給剛剛起步的輔助駕駛系統蒙上陰影。
特斯拉稱這是Autopilot輔助駕駛系統行駛1.3億英里過程中遇到的第一起致命事故,而美國每9400萬英里就會發生致命車禍。特斯拉還強調,輔助駕駛技術一直都在發展之中,但它還並不完美,需要駕駛者保持警惕。使用Autopilot的過程中,汽車會不斷提示雙手要全程放在方向盤上,並且對你的車負責。
言下之意,特斯拉認為這起事故車主也需承擔責任。
誰該為無人駕駛事故負責?
目前,全球範圍內各國對無人駕駛都還沒有明晰發法律可以界定問責。在美國,大多數州都表示無人駕駛不合法,只有14個州正嘗試對無人駕駛立法,我國也明令規定不允許無人駕駛汽車上路行駛。
除了安全問題,無人駕駛立法中還有一個重要問題,就是如何追責。如果被無人駕駛車撞了,那責任算誰的?
現行的交通法規對無人駕駛車的責任分擔沒有明確規定,換言之,交通法規責任分擔問題在無人駕駛方面是空白的。
首先,汽車主機廠作為無人駕駛車輛提供者,在技術應用之前,應該考慮到所有的安全使用情況,一旦發生事故,主機廠的責任是無法避免的。另外,駕駛員要清楚,無人駕駛技術當前依然只能作為駕駛輔助系統,作為無人駕駛車的駕駛員,從道義上講,如果不想在行車過程中把自己和乘員的小命送掉,就要你駕駛普通汽車一樣,注意力集中,手握方向盤,做好安全駕駛。
其次,以前的責任分擔,無非涉及到肇事者、侵權方和被侵權方,有時候還會加一個車輛的產品責任問題,但對於無人駕駛來說,現在又多了一個平台責任,也就是說,伴隨人工智慧系統的加入,出現了另外一個駕駛「大腦」,由此也就產生了平台的責任。
有人要問了,如果這樣說,無人駕駛技術豈不就是白費了,如果要問我,我會說,本來就是這樣,有了無人駕駛技術並不意味著人可以完全放輕警惕,因為即使是萬分之一的概率,那也是滅頂之災。
推薦閱讀:
※CS373無人駕駛汽車編程課程講義翻譯一:定位
※無人駕駛汽車上路?道阻且長 行則將至
※沃爾沃XC90的『高度自動駕駛』使用體驗如何?