無人駕駛汽車失控瞬間:撞SUV還是轎跑車?
假設,一輛無人駕駛汽車正面臨艱難的抉擇——撞向兩個物體中的一個。它可以把方向盤打向左邊撞上沃爾沃SUV,或者打向右邊,撞上無辜的Mini Cooper。如果你來給這輛車編程,原則是將傷害最小化,在上述情況下你會讓它撞哪個?
假設,一輛無人駕駛汽車正面臨艱難的抉擇——撞向兩個物體中的一個。它可以把方向盤打向左邊撞上沃爾沃SUV,或者打向右邊,無辜的Mini Cooper自認倒霉。如果你來給這輛車編程,原則是將傷害最小化,在上述情況下你會讓它撞哪個?
從物理學角度講,你應當選擇將其撞向一輛更重的車,從而更好地吸收碰撞動能,這麼說來就得撞沃爾沃了。另外,被撞的這輛車還應當以安全著稱,這麼說,就更得撞沃爾沃了。
別高興得太早,事實是物理學並非唯一需要考慮的因素。選擇撞一個東西而不是另一個,這本身就是個糟糕的抽籤。從法律和道德層面來講,這都把無人駕駛汽車產業拉到了危險的境地。
就算造成的傷害並非故意,一些「優化撞車」演算法天然需要作出精密而系統的識別,撞大型車輛。而被選中的車主得承受這一後果,即使他們什麼錯都沒有,錯就錯在他們注重安全,又需要一輛SUV來拉一大家子。這,聽上去合理嗎?
這樣說來,怎樣才算合理的編程設計遇到了道德困境。沃爾沃和別的SUV車主理所應當對那些優先撞他們而不是小型車的無人駕駛車製造商不滿,儘管物理角度上這可能是最佳解決方案。
這算是個現實問題?某些車輛事故無可避免,甚至無人駕駛汽車也難逃一劫。一頭鹿有可能突然跳到你面前,其他車道的汽車也可能突然沖著你就來了。先不管什麼物理的三七二十一,火燒眉毛的事故怎麼破才是王道。在這種意義上,一輛無人駕駛汽車能做出最好的選擇。
人類在危急情況下只會以本能作出反應,然而一輛無人駕駛汽車卻是由軟體驅動的,它能目不轉睛地持續掃描周遭環境,甚至在我們意識到危險之前就能夠做出許多運算了。它們會爭分奪秒地做出選擇,將碰撞傷害降到最低。不過軟體需要編程,目前還不清楚對於疑難問題該怎麼處理。
至於構建邊界情況模型,我們在這裡也不試圖模模擬實世界裡的情況。因為這些情況非常少見,然而卻無疑暴露了常規情況下隱匿或潛伏的問題。自上述情景,我們能夠看出碰撞演算法可能會被引入歧途,每次我們做出價值判斷,認為一項事物比另一項事物更適合犧牲時,我們都該把它納入考慮背景。
早年,無人駕駛車的應用場景主要控制在高速路上。這是個相對簡單的環境,車主無需顧慮在市內駕駛時要時時留意的行人,數不清的別的移動標的們。不過,谷歌卻於近期宣布,它在貨真價實的城市街道上邁出了測試無人汽車的人生第一步。隨著無人駕駛汽車的運用環境更為變幻莫測險象環生,它們將面對更艱難的抉擇,意即,撞道邊物體,甚至是,行人。
道德,不僅僅牽扯到傷害問題這一問題在下述場景里將會更尖銳地暴露出來。請再次設想,一輛無人駕駛汽車要撞車已經在所難免了。它有倆選擇:一個戴頭盔的騎摩托車的,一個沒戴頭盔的。編程的正確方式是啥?
以「優化撞車」之名,你可以使它撞向可以從事故中最快重新屹立起來的任何物體。在文章開頭的場景里,你該撞那輛沃爾沃SUV。這裡,該撞那個戴頭盔的摩托車手。一個好的演算法應當知道,沒戴頭盔的騎自行車的被撞死亡概率要高得多,而死人則當然是汽車生產商要竭力避免的了。
不過,我們也能一眼看出這一選擇的不公正性,正如從「優化撞車」角度想問題一樣有道理。通過撞那個戴頭盔的騎摩托車的,我們這不就是懲罰他的責任感嗎,因為他帶頭盔了?同時,我們給另一個騎摩托車的開了綠燈,即使他人要不負責任得多,不戴頭盔在美國大多數州都是違法的。
這一區別對待不僅是不道德的,還是個壞政策。這一「優化撞車」設計會鼓勵騎摩托車的們不再佩戴頭盔,樹大招風,何必因此變成無人駕駛車的靶子呢,尤其是這種汽車未來會越來越多。就像在上個場景里,以安全著稱的汽車銷量反而會受影響,比如沃爾沃和梅賽德斯賓士。顧客們可不想成為無人駕駛汽車的靶子啊!
把一切交給運氣
對於這類使人窩火的兩難困境,一個優雅的解決方法是,乾脆別做那麼深思熟慮的選擇了。我們可以設計出一款隨機做選擇的無人駕駛汽車。這是說,如果選擇該撞哪個靶子是有道德缺陷的話,那又為何要算計,隨機多好!
無人駕駛汽車編程會產生隨機的數字;奇數一種辦法,偶數另一種辦法。這避免了無人駕駛汽車對大型SUV,負責任的騎摩托車的或種種種種存在區別對待的指控。
這一隨機性看上去也沒給這世界帶來什麼新的不可控性:運氣常伴左右,好的壞的都是如此。隨機決策也更好地模擬了人類駕駛,直到目前為止,面對危機時人的瞬間反應還是不可預測的,並非基於理智的,因為沒有足夠時間運用人類的理智。
不過,這一隨機的機械可能由於以下幾個原因而不夠完善。首先,模仿人類駕駛有什麼了不起嗎?造無人駕駛汽車不就是沖著他們能做出更好的決策嗎?人類錯誤駕駛,分心駕駛,醉駕等等是如今90%甚至更大比例車禍的肇因。美國每年有32,000餘人命喪馬路。
第二,我們人類司機要是做出一個糟糕的瞬時反應還能被原諒——例如,撞向一輛一整就爆炸的福特Pinto(發生撞擊後該車油箱會起火甚至爆炸)而非一個更安全穩定的物體。無人駕駛車可難辭其咎。世界各地的工程師們可是隨時都能修改Bug的啊。這是謀殺和過失殺人的不同。
第三,在可見的未來,重要的是不僅僅是就難解的道德困境得出「正確」答案。它還應該心思備至,能否為此答案辯護,即秀出你的道德演算法。在道德領域,如何考慮一個問題與結果同樣重要。而目前我們討論到的是,無人駕駛汽車隨機做個決策,然後,再推卸責任。它們不是「深思熟慮」,是「考慮不周」,這可能比人們作出本能反應結果釀成事故還要糟糕。
放棄知情權另一個不那麼激進的解決方案是隱藏某些可能導致不必要區別對待的信息,人稱「無知之幕」。應用到上述場景即,不去識別交通工具的構成和型號,有沒頭盔或其它安全設施。這樣一來,就沒有形成傲慢與偏見的基礎了。
在「優化撞車」計算中不使用這一信息還不夠。要在道德立場上旗幟分明,無人駕駛汽車需要做到壓根不去收集這些信息。要是他們有這些信息的話,使用它們就能夠將傷害事件最小化或者拯救生命,這樣一來,如果不使用這些信息就會有法律責任。想像一下,要是一個國家智囊組織掌握了關於恐怖分子陰謀的可靠消息,然而卻沒能阻止襲擊的話,會激起多大的民憤!
不過這種方法也有問題,汽車製造商和保險商會希望收集儘可能多的數據,以更好地理解無人駕駛汽車車禍事件,或者用於其他目的,比如新型的車內廣告植入。因此,讓這些利益相關方們自願對關鍵信息睜一隻眼閉一隻眼不知道是否是個現實做法,因為他們收集數據的慾望如此強烈。
So, Now What?!在未來的無人駕駛汽車裡,單單一項車禍避免功能還不夠。有時從物理意義上講一次事故的發生不可避免,比如因為沒有足夠的時間踩剎車,技術失誤,天氣原因或者單單就是壞運氣作祟。因此,無人駕駛汽車也需要「優化撞車」策略。
為此,攻城獅們需要設計出機會成本公式,賦值,得出不同選項的預期成本,選擇最低成本的那個——而這將決定誰生,誰死。這天然是個道德問題,決策時需要斟酌和透明。作為解決這些挑戰的第一步,創建關於道德和無人駕駛汽車的公開大討論能夠幫助提高公眾和業界對這一問題的意識,在人們遭受飛來橫禍時也能平息眾怒。(這,能嗎?)
現在,截至我回答這個問題的時候,即2015年1月31日,多數已量產汽車上使用的主動安全系統對其他車輛的識別依靠圖像感測器或圖像感測器+雷達或者LIDAR或者LADAR。計算機視覺方面的演算法以SVM為主。在現有條件下能高效準確的判斷出前方有車輛需要避讓已屬不易。
個人認為,在計算機視覺技術進步到人們需要考慮這個問題之前,不如先把精力放在解決其它問題上。謝邀
如果我是程序員,需要考慮演算法,盡量在撞擊中保全所有的車和人,而不是看牌子下菜。這種車不安全不要坐,因為:程序員最安全的演算法是選擇絕不讓這種選擇發生。
首先,為了程序效率不會在自動駕駛軟體上附加車型識別軟體、品牌識別軟體(我是撞寶來還是撞12缸的帕薩特)。這個程序主要作用是開動汽車、防止發生碰撞、失控後制動。
所以題主的問題可以歸類為假想科幻類。
在假想前提下,先說結論,即便駕駛程序能夠分別前方車型,撞SUV還是撞MINI的概率是相等的,取決於程序員的編程習慣。
因為在不知道對方車裡是坐了一車嬰兒還是無人駕駛的空出租,所以無法做出傷害最小化判斷,撞哪個都沒區別了,還是好好想辦法怎麼挽救自己的車。
然後方向盤該往左還是該往右都是提前程序員寫好的,也許只是程序員一個編程習慣&<=和&>=
給你講個故事你正常開車,前面一個人,一條狗你撞人還是撞狗?剎車啊笨蛋
很重要的一點是,行車控制系統是根據交通部門的行車規範來設計的,比如車輛在行駛過程中剎車失靈,要減檔靠邊等。我很難想像在什麼時候車輛會遇到題主問到的情況,如果真的發生,系統應該是按照行車規則處理,比如剎車並保持直行。當然不排除如果未來所有車輛都是自動駕駛後,交通部門會不會因此而調整相應的駕駛指南,但這個和車輛設計的程序員無關,而是和當地交通法規有關。
推薦閱讀: