自動駕駛技術開發遭遇瓶頸?——出事了如何擔責?

自動駕駛技術開發遭遇瓶頸?——出事了如何擔責?

就在當地時間3月18日,Uber的一輛無人自動駕駛汽車在美國亞利桑那州的一起事故中撞死了49歲的行人伊萊恩·赫茨伯格(Elaine Herzberg)。事故發生時,這輛Uber正以38英里的時速行駛,車上有一名司機監管,事故發生時車輛並沒有意圖減速的跡象。這是已知的全球首例自動駕駛汽車致死事故。

Uber的事故令公眾密切討論,無人駕駛技術是否已經成熟到可以在公開道路測試。晶元巨頭英偉達周二宣布,將暫停在美國新澤西、加州、日本和德國的全球自動駕駛測試,事故發生地亞利桑那州州政府也宣布將永久禁止Uber在該州範圍內開展無人駕駛汽車測試。無人駕駛技術的發展,遭到了前所未有的質疑。

其實涉及到人工智慧這個問題,稍稍深入研究一下,就會與倫理道德問題相關聯。應對這種問題的法律法規不好立。出事故了,責任可以在司機,在行人,在車企,在Uber管理層,但絕對不在自動駕駛,技術無罪。如果把自動駕駛改成剎車輔助,就很好理解了。如果司機沒有按照Uber的使用說明操作、無視Uber的免責聲明,責任不在Uber,反之亦然。在探討自動駕駛汽車的法律責任問題上,我們不妨試試排除法。

司機如何承擔責任?

一般交通事故發生後,首先看司機有沒有過錯,根據其注意義務和過錯大小承擔責任,交強險保的就是司機的責任,在中國,《道路交通安全法》第七十六條第二款規定,機動車與非機動車駕駛人、行人交通事故責任分配遵循過錯原則,非車方沒有過錯由車方承擔賠償責任,有過錯的相應減輕車方的責任,若車方沒有過錯,也需承擔不超過10%的賠償責任。

按照美國汽車工程師學會(SAE)的自動駕駛級別分類,這起事故中的Uber自動駕駛汽車應是四級以上,進入三級環境觀察和駕駛操作都已由系統來完成,四級在三級的基礎上人不需要對所有的系統要求進行應答。比如只需要在某些複雜地形或者天氣惡劣的情況時,才需要人對系統請求做出決策。

這意味著駕駛活動和絕大部分的注意義務都從司機讓渡到了自動駕駛系統,在這起事故中,安全駕駛員不控制駕駛活動,所以難以要求其承擔侵權責任。

(圖片來自於網路)

公眾號:法律服務網FL160

官網:

法律服務網?

www.fl160.com圖標
推薦閱讀:

在校園中圍毆別人和被圍毆那個損失更大?
【「6·22杭州保姆縱火案」莫煥晶被判死刑,程序不正義,陳文伍建議莫煥晶上訴到高院】
白帽子和漏洞的那些事?
School Days動畫中伊藤誠、桂言葉、西園寺世界三人的行為是否構成犯罪?如何定性?
傳奇落幕,法學家邱興隆的傳奇人生

TAG:自動駕駛 | 無人駕駛車 | 法律 |