史上規模最大的無人車道德研究:人們更傾向犧牲乘客而非行人

林鱗 編譯自 Forbes

量子位 出品 | 公眾號 QbitAI

今天的故事發生在麻省理工大學(MIT)Media Lab,一項有史以來規模最大的無人車道德研究首次透露成果。

而調查內容正是無人車無法繞過的「電車難題」。該不該犧牲一人而拯救五人,這是個大問題。

△ 電車難題:你是否會拉下操縱桿,讓電車轉向另一條軌道?

2016年,MIT的研究人員推出了一個叫「道德機器」的博弈測試,涉及不同性別年齡、甚至物種等在過馬路時的「電車難題」問題。400萬名志願者必須根據多種場景下做出選擇,是犧牲車上的乘客還是過路的行人?是犧牲老年人,還是年輕人?

△ 應該直行還是轉向?道德機器中越來越複雜的道德困境

不同困境

在下面兩種情況下,你希望無人車將直行還是轉向?

MIT教授Iyad Rahwan團隊發現,在情況比較簡單時,比如在保護成人還是兒童的問題上,結果非常明確——絕大多數人更傾向挽救兒童的生命。

穿越道路的行人年齡越大,相較之下挽救他們的人就越少。

再來看另外一種情況,在這兩種情況下,你希望無人車直行還是轉向?

直行,意味著犧牲車上的乘客;轉彎,意味著犧牲人行道上行走的路人。

結果顯示,61%的投票者傾向直行,只有39%的人願意轉彎犧牲行人。

類似的問題還有很多,場景越是複雜,被調查者就越糾結。

在選擇犧牲一個不違規過馬路的行人,或者犧牲兩個違規過馬路的行人時,投票結果相對均勻。

通用機器倫理?

更有趣的是,研究人員發現,國家和地區不同,選擇結果差異也很大。

當賓士一方曾表示「賓士汽車以保護車裡乘客的安全為重」時,也著實引發了一場言語風波。

Rahwan表示,由於每個人的道德標準不一,誰對誰錯自然難以分清。這似乎證明了符合阿西莫夫小說中的通用機器倫理不存在。

對了,如果感興趣,你也可以來參加這項測試。科學移步「道德機器」項目官網,你也能親自感受一下無人車設計中的道德難題,還可以選擇中文版~

地址給你:

Moral Machine?

moralmachine.mit.edu圖標

歡迎大家關注我們的專欄:量子位 - 知乎專欄

誠摯招聘

量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復「招聘」兩個字。

量子位 QbitAI · 頭條號簽約作者

?? ? 追蹤AI技術和產品新動態


推薦閱讀:

自動駕駛汽車在雨中行駛為什麼如此困難?
MIT深度學習與自動駕駛課程漢化版
Uber無人車撞人致死,會踩下自動駕駛的急剎車嗎?
半無人駕駛和無人駕駛的時代
加州無人車路測歷史性變革!車內無需配備人類,遠程遙控即可

TAG:無人駕駛車 | 人工智慧 | 科技 |