自動駕駛車禍暴露人工智慧弱點

2016年6月,在連續因自動駕駛造成交通事故,並導致駕駛者出現傷亡後,美國高速公路交通安全管理局(NHTSA)針對特斯拉的Autopilot系統功能展開調查。經過半年的調查,美國高速公路交通安全管理局在當地時間2017年1月19日宣布,並未發現特斯拉Autopilot功能存在問題,同時不會要求特斯拉對汽車進行召回。

事故原因

要理解這一事故的前因後果,需要簡單回顧一下事件經過。2016年5月,一位名叫約書亞·布朗的駕駛者駕駛Model S與一輛卡車相撞,並在事故中喪生。當時布朗駕駛的Model S處於部分自動駕駛狀態,這也是全球第一起因自動駕駛而致死的事故。當時,布朗開著他的Model S行駛在一條公路上,Autopilot處於開啟模式,此時一輛拖挂車以與Model S垂直的方向穿越公路,Model S與拖挂車相撞,造成布朗死亡。

美國高速公路安全管理局的結論是,特斯拉Autopilot不是完全自動駕駛系統,它根本無法應對所有路況,司機不應該依靠它來防止此類事故。在接受調查時,特斯拉公司也向美國高速公路交通安全管理局下屬的缺陷調查辦公室提供了配置Autopilot技術的Model S和Model X等汽車在2014~2016年所有行駛里程和安全氣囊相關的數據。

調查人員利用這些數據計算了Autopilot系統安裝前後的撞車率,得出特斯拉安裝了Autopilot系統後汽車更安全的結論。美國高速公路交通安全管理局在報告中也認同這一觀點,自從特斯拉汽車於2015年安裝了Autosteer(方向盤自主轉向)軟體以來,特斯拉汽車的撞車率已經下降了40%左右。Autosteer是Autopilot系統的功能之一,能夠讓特斯拉汽車保持在自己的車道上行使,即使遇到彎道仍能夠讓汽車自行轉彎。

儘管美國高速公路交通安全管理局的調查宣告結束,並得出了對特斯拉有利的結論,但這並非終極結論,因為美國國家運輸安全委員會針對這一事故的調查仍在進行之中。

另一方面,上述調查結果還不是事故的全部原因。根據特斯拉的調查,另一個原因才是此次事故的根本原因。強烈的日照和拖挂車白色車身讓Model S的Autopilot系統攝像頭短暫「失明」,未能夠在白天強光下及時發現拖挂車白色側面的反光,導致在自動駕駛模式下的剎車功能未能緊急啟動。Model S與拖挂車相撞,其前擋風玻璃與拖挂車底部發生撞擊,車主布朗不幸身亡。

這個原因既是人工智慧的技術問題,也道出了人工智慧的本質。既然特斯拉Autopilot沒有錯,人就有錯。因為特斯拉Autopilot的攝像頭有問題。但是,即便攝像頭沒有問題,特斯拉Autopilot是否能分辨出道路上的實體車和虛擬車,以及雨天和霧天強烈陽光照射後出現的折光甚至彩虹?

這個問題是要打問號的。因為,人不會完全教會自動駕駛汽車正確識別道路上的所有障礙物和危險情況。反過來也說明,這實際上還是人工智慧的錯誤,因為它們還不能像人一樣學習並獲得符合道路實際情況的正確知識。

人工智慧尚難比肩人類的智能

人工智慧賴以立身的基礎是機器學習(演算法)和深度學習。對於前者,或許是人工智慧的優勢,因為在涉及數據和演算方面,人確實不是計算機的對手,因此當計算機掌握了某一遊戲的所有演算法、棋譜時,人類當然無法抵禦人工智慧。但是,在深度學習上,人工智慧還處於非常幼稚的階段,例如對圖形和實物的認知,對邏輯推理的學習,以及對所有未知事物的學習和認知。

一個幼兒園的小孩看過一張貓的圖片後,能馬上辨認出另一張圖片中的貓,同時幾歲的孩子在生活中見過貓之後,在後來的時間看見貓就能辨認出來。但是,谷歌圖像識別系統(一種應用人工智慧)看過和學習過成千上萬張貓的照片後,才能從圖片中識別貓,但是準確率大大低於小孩。而且,即便在圖片上人工智慧能認識貓,在現實生活中未必能識別真實的貓,也即人工智慧區別實物和圖像或虛擬事物完全無法與人類相比。

特斯拉Autopilot在強烈陽光照耀下「亮瞎了眼睛」固然是技術原因,但也說明,即便它的攝像頭沒出故障,它學習和識別道路上的某些障礙物還不及人類的孩子。原因是,它可能沒有遇到過諸如光的折射、彩虹一類的情況,而且人類還不足以教會它識別這類情況。即便汲取這次事故教訓,改進了特斯拉Autopilot的攝像系統,使其能識別白色汽車和其他障礙物,並採取躲避或剎車,但是,遇到陽光照射到黑色、藍色、紅色或所有顏色的汽車時,特斯拉Autopilot的攝像是否不會出問題,而且都能識別出來?如果不能,車禍也難以避免。

現階段,儘管深度思維(Deep Mind)公司設計的Master能連續戰勝包括棋聖聶衛平在內的60名圍棋大師,但總體而言,人工智慧目前的智能還是非常低級,有時連嬰兒的智商還不如,再加上技術問題,如特斯拉Autopilot的攝像頭在強烈陽光反射白色物體後短暫失明,就更容易造成事故。

當然,強烈陽光反射白色物體也會讓人的眼睛眩目而看不清前方的情況。但是,如果是車主布朗自己開車,在受到強烈的眩目刺激後就會產生本能的躲避行為,提前預判前面可能有障礙物,一是緩行,二是剎車,從而避免車禍的發生。

人工智慧的學習廣袤無邊

這實際上涉及人工智慧無論是演算法還是深度學習的廣度問題,凡是人工智慧沒有看過、學習過和接觸過的東西,它都無法感知、辨認和識別,從而無法理解,因此難以形成正確的決策。

對於人工智慧來說,這種學習的廣度實在是廣袤無邊,凡是人類社會的東西和事物,都是其未學習和接觸過的,就本質來說,即便人工智慧學習了,能感知人類社會的東西,但其感知也與人的不一樣。例如,戰勝60位大師的Master並不知道它在做什麼,只是在按一定的演算法和程序在做決定。

對於它未學習過的東西,人工智慧就會不不知所措,而且不知道邏輯推理,犯錯誤和發生事故也在所難免。2011年2月16日,在美國益智類電視節目《風險》上,經過3天(三輪)人機大戰,IBM的超級計算機沃森(Watson)電腦戰勝了人類頂級高手肯·詹寧斯和布拉德·拉特。但是,沃森在非常簡單的一些問題和邏輯推理上卻不如人類。

例如,在回答「一個語言的方言包括吳語、粵語和客家話,這種語言是什麼」時,沃森答錯,詹寧斯答對。因為沃森沒有學習過吳語,在邏輯上並不理解吳語、粵語和客家話其實就是中國人除普通話以外的方言。

人工智慧仍然值得探索

如果人工智慧不具有像人一樣的識別和辨認現實環境的能力,自動駕駛或無人駕駛就可能永遠是一種理想。既然部分自動駕駛以及完全自動駕駛存在危險,為何還要研發這類產品並推向市場呢?

美國高速公路交通安全管理局的調查報告給出了一個答案,以特斯拉汽車行駛里程數和安全氣囊數據為依據,對特斯拉Autopilot推送Autosteer這個軟體前後汽車的事故率進行對比,汽車事故率從推送前的1.3次/百萬千米下降到推送後的0.8次/百萬千米。汽車事故率下降了近40%左右。特斯拉的CEO伊隆·馬斯克稱,即便退一萬步講,現在特斯拉的部分無人駕駛系統只比人工好1%,那麼一年車禍導致的120萬人死亡裡面,人工智慧也能拯救1.2萬人。

另一方面,人工智慧的探索也像其他學科的探索一樣,只能積跬步至千里,聚小流成江海。如果把現實生活的路面情況的各種參數設計得更為全面,包羅萬象,教會人工智慧進行更全面和更深度的學習和分析,也許可以逐步達到與人同樣的辨析路況的智能而不會出車禍。

當然,最根本的問題是,即便人工智慧的深度學習能與人媲美,人類也不能完全把命運交給人工智慧來處理。這才是發展人工智慧的不可違背的核心原則。

特斯拉的Autopilot出問題,就是車主布朗非常依賴Autopilot的自動駕駛功能,一切交由Autopilot來處理,布朗在車禍發生前沒有使用剎車,他最後一個動作是將自動巡航速度設置為74英里/小時(119千米/小時),但兩分鐘後就發生了車禍。然而,如果布朗是自己駕駛,他完全可以觀察到那輛拖挂車,在事故發生前採取如剎車、轉向等方式,遺憾的是,他並未採取任何有效措施。

所以,美國高速公路交通安全管理局在關於特斯拉Autopilot車禍報告中既指出Autopilot不存在導致致命車禍的缺陷,但也指出,在遇到交通路口時,人們不應當過度依賴Autopilot來檢測相應的路況,因為車主布朗在撞上卡車之前,有充分的時間(長達7秒)來踩剎車。

楊欣


推薦閱讀:

車禍的命例(轉)
子未雙穿,車禍歸天
白色車最安全——車禍讓各國都揪心
孩子目睹媽媽遭遇車禍 寶馬男腳踢死者後逃逸
黃狗遇車禍去世,黑狗默默陪伴不肯離開,感動

TAG:人工智慧 | 駕駛 | 自動駕駛 | 智慧 | 暴露 | 車禍 | 弱點 | 人工 |