如何評價《無人駕駛第一起命案——特斯拉製造》?
無人駕駛第一起命案——特斯拉製造
現階段自動駕駛的實施條件還不成熟,主要的原因在於識別軟體對於路況多樣性的應對不足。很多自動駕駛車輛長時間的安全自動駕駛距離都是在高速公路等特定路段刷出來的,而谷歌則是通過限制車速來和工作人員的保護來保證安全性。
特斯拉前段時間直接開放了自動駕駛套件的軟體更新,雖然這套軟體要求要駕駛員雙手把住方向盤才能開啟,初衷是希望司機是能夠集中注意力來規避軟體無法準確判斷的問題。但是在實際情況中並非如此,雖然很多人做到了雙手把住方向盤,但並沒有好好注意路況。
比如:
這次事故發生的外在環境,雖然並非常見情況(正好遇上白車,正好又是高底盤的貨車),但對於自動駕駛系統來說也是不可忽視的。
特斯拉的自動駕駛系統依靠攝像頭和毫米波雷達兩套系統收集路況信息(評論中有提到超聲波雷達,因為超聲波的探測距離較短,只有幾米,一般用於探測車輛周邊環境,實現自動泊車,不適用於這種需要長距離探測然後提前實施制動的情況,所以當時沒有提到),兩套系統同時識別,將路況信息融合,從而幫助計算機得到更準確的結果。
攝像頭信息的識別主要依靠計算機視覺的判斷,而在汽車行駛的高速情況下,必然要犧牲一定的準確性。
同時,攝像頭圖像的識別很容易被外界因素比如光照,天氣,路面紋路等因素影響。在這次事故的一些報道中就提到過是因為特斯拉將前方白色貨車與天空認作一體而沒有分辨出貨車,在光照條件的變化下這種情況是可能發生的。
為了避免這種狀況的發生,自動駕駛系統還會採用雷達來探測前方目標從而避免攝像頭單獨判斷的失誤。但在Musk自己發布的信息中說道這次雷達將前方的車輛當做了高速公路上橫跨道路的標牌,所以沒有進行剎車。
所以綜合現在得到的信息,這次兩套系統的識別都出現了問題,造成了自動駕駛的判斷失誤。
而作為最後一道保障的司機,也並沒有踩下剎車,這就釀成了悲劇的發生。
這次的事故影響的則不僅僅是特斯拉本身 ,這讓以前所有自動駕駛汽車宣傳的低事故率的努力被打破,雖然馬斯克稱特斯拉的自動駕駛使用了1.3億英里才發生致命事故,這比起一般的統計數據要更安全(個人認為這個數據有並不能嚴謹的說明問題) 但至少在這次事故中,人們更關心的問題是,命案以及卡車的損失是由誰來負責?是特斯拉還是司機呢?責任如何分配一直是自動駕駛裡面關於法律道德爭辯的一個關鍵點,這次事故讓這種討論更有實際意義。其他的問題比如自動駕駛的倫理問題也會被更多的討論,如果在一種極端的情況下,需要撞死行人來保證車內人的安全,那車輛應該做出怎麼樣的選擇,而責任應該由誰來承擔呢?
自動駕駛是未來發展的趨勢,在未來我相信它對交通事故率,城市的擁堵,排放,都會有很正面的影響,但現今各項技術還處在初級的研究階段,個人認為特斯拉過早的開放更新是操之過急了。恕我直言,事故發生的根本原因是:很多人根本就搞不清楚Level 2和level3自動駕駛的主要差別是什麼。把一輛充其量是高級level 2的車當成level 3甚至無人駕駛來開,哪怕在高速上也是很危險的行為!!!
講真,和傳統車企、供應商比起來,特斯拉標榜的安全簡直就是個笑話。來看看事故發生的兩個必要條件:1)汽車沒有正確感應到白色拖車,2)駕駛員也沒看到白色拖車。
第一條,汽車外部的攝像頭由於光線原因沒有做出正確的識別,完全有可能,人有失足馬有失蹄,100%的識別率本身就是一個不可能的事情。但是我並不想因此而批評特斯拉。真正的問題是出現在第二條上,是「駕駛員沒看到拖車」 還是 「駕駛員根本就沒有在看」? 不管特斯拉官方這麼說,我個人更傾向後者,那麼大的拖車難道不能被一個正常觀察環境的駕駛員發現?那麼如果是駕駛員沒有認真在看,特斯拉這麼草率的允許了駕駛員的行為是不能容忍的。所謂的「自動駕駛模式前點按鈕同意」說白了就是甩鍋的行為。
那為什麼傳統車企和供應商做的更安全呢:在合格的driver monitoring系統開發出來之前,不過度開放自動駕駛。在這種事故發生情況下的正確做法應該是:如果車輛發現駕駛員沒有在觀察環境,應該做出警告提示。之所以說特斯拉只不過是做了高級的lv2自動駕駛,最缺的就是對駕駛員的行為監測。
——————————————————————————————
早上上班路上刷到新聞的時候,第一反應其實是:希望這件事情能給國內的互聯網自動駕駛團隊也敲個警鐘,想要出產品請步子不要邁的太大。
——————————————————————————————
補充2016.07.02
再看了一遍youtube上Mercedes E-class的一個在高速上試驗drive pilot功能的視頻,駕駛員有大概一分鐘的時間沒有碰方向盤,系統會開始發出嗶嗶嗶的聲音提示駕駛員碰方向盤(曾經和同事開玩笑說這是為了確保駕駛員沒有死掉),之後如果駕駛員大概20秒沒有反應,汽車會自動開始減速,直到駕駛員把手放回方向盤上。
在特斯拉的視頻里,我沒有看到過類似的提示功能。從這點上來說,賓士做的更合法規。
但是這樣還有一個問題,最長60s+20s=80s的時間允許駕駛員做其他事情,80秒其實能發生很多潛在的危險,我不清楚這個時間是怎麼計算出來的,對我個人而言,在沒有更安全系統的前提下,30秒其實已經挺極限了。看到了不少打著「Self-Driving」或「無人駕駛」事故致死的標題,引發不少關於無人駕駛的悲觀討論。
但事實並不是這樣。事故車輛啟用的 AutoPilot 並不能代替司機駕駛車輛,只是一種輔助駕駛功能,要求司機掌控方向盤而不是電腦。
這並不是一起無人駕駛汽車的交通事故,不要上綱上線總想搞個大新聞。
關於事故的具體介紹和 AutoPilot 需要駕駛員手握方向盤等使用條件,建議大家看下特斯拉官方聲明:不幸的悲劇,掌握一些基礎知識才能有效地討論。
事故的具體責任,還需要美國國家公路交通安全管理局調查後判定。
我覺得這個悲劇提醒了所有汽車公司——整個汽車行業押注的自動駕駛功能,應以何種形式提供給民眾?
#1 - 特斯拉不應在量產車上提供 Beta 版服務
特斯拉一直稱 AutoPilot 還處於測試階段,並不完善。
儘管特斯說明了 AutoPilot 啟用時駕駛員需要雙手握好方向盤,以及自動駕駛功能不能識別的一些情況。但很多用戶是普通人,並沒有能力來判斷,當時路況條件是否符合要求,或者自己是否適合使用 AutoPilot。
AutoPilot 的主要功能推出後,很多用戶認為它無所不能。不管是不是特斯拉宣傳過度,用戶對自動駕駛的理解失控了。各種瘋狂的 Model S 「大撒把」視頻一度風靡視頻網站。
嚇壞了的 Musk 多次口頭警告用戶,並在年初的一次升級里,限制了 AutoPilot 部分功能。但這項測試服務仍被保留在幾萬輛車上。
汽車這個關係到很多人生命和安全的產品上,特斯拉應該尊重傳統汽車公司對待安全的認真態度。汽車這個古老產品急需創新,但它不該擁有最高優先順序。
關於汽車的行駛和安全,不該存在 Beta 服務。
#2 - 放棄部分自動駕駛,等待完全自動駕駛
按照汽車產業的劃分,自動駕駛被分為四個階段:輔助駕駛、部分自動駕駛、高度自動駕駛和完全自動駕駛。
目前一些高配置汽車上,會有偏道提醒等功能,這屬於輔助駕駛。特斯拉的 AutoPilot 還屬於部分自動駕駛——這是風險最大的階段。
在部分自動駕駛下,要求我們開車時,一方面要相信雷達、感測器和自動剎車系統能對路況做出反應;另一方面還要求駕駛者精神高度集中,在自動駕駛功能失效時,接管對車子的控制。
但特斯拉忽視了人性。
一旦我發現 AutoPilot 總能很好的自動減速跟住前車,對機器建立起信任後,自己的惰性就會發生作用——啟動 AutoPilot 的情況下,雖然並不會大撒把,但也很難完全集中注意力,很難及時對每次路況做出反應。
可你又告訴我,別信賴它,它時靈時不靈。我的內心是崩潰的。
且不論我們普通人能不能做到這麼精分。在這兩種狀態下的切換,就需要幾十秒的時間。在發生意外的一剎那,根本來不及切換。
所以我認同谷歌的做法,開發出一輛完全依賴自動駕駛功能的汽車,不需要一個普通人在兩種模式下不斷切換。
即便是兩種模式切換,也是在人工駕駛(基礎輔助駕駛功能,不會讓人產生依賴)和完全自動駕駛界線清晰的兩個模式間切換。要麼我在開車,要麼機器在開車。避免半自動駕駛這種混合模式中,人性帶來的負面影響。
關於完全自動駕駛的實際應用,一直都有爭論,也有像中國大媽或電動兩輪車橫穿馬路這樣的梗。想要在全路況實現完全自動駕駛,短期內是不可能實現的。
在我們的日常生活中,可以先從特殊路況開始。比如只有在封閉道路如高速公路上才可以使用完全自動駕駛。在普通馬路上,要靠駕駛者自己判斷。這樣的話,完全自動駕駛更容易投入實際應用。
相應的責任也更容易劃分。完全自動駕駛時發生的事故,當然由製造商承擔責任;人掌控方向盤時,理所應當由個人承擔責任。
我的微信公眾號 速度荷爾蒙 會持續關注自動駕駛的案例和推進,歡迎關注。
更多文章:叭叭嗚 - 知乎專欄
記得汽車之家在測試了賓士發布的新S級之後就認為賓士已經具備了生產無人駕駛汽車的能力,然而賓士至今也沒有對外宣稱自己能生產無人駕駛汽車。沃爾沃也在這方面進行了長時間的研究和測試。我相信各大傳統車企在這方面都有深厚的積累,但都沒有炒作無人駕駛的概念,而是將其作為安全輔助功能。而如日中天的高科技典範特斯拉一直在宣傳無人駕駛,並通過媒體的炒作讓大眾以為這是他獨門秘技,在未來能夠傲視群雄的絕招。那麼我想知道,這到底是為什麼。
1. 並非自動駕駛,特斯拉並沒有自動駕駛功能。特斯拉只是一個autopilot功能,自動巡航,很多車都有。大概就是勻速行駛,自動跟蹤車道線,沿著車道行駛。
2. 事故是這樣的:一輛很長的卡車,橫在馬路上。而特斯拉的攝像頭,在天氣很好的情況下,正好背光。卡車又是白色,和遠處天空顏色類似。
所以攝像頭沒有判斷出來前面有個東西。
司機或者睡著了,或者人眼也看不到前面有個東西。
然後就撞了。
3. 感測器一定會出錯!
感測器一定會出錯!
感測器一定會出錯!
重要的事情說三遍。攝像頭是視頻感測器。
我認為此次事故並不會對自動駕駛技術造成任何衝擊,而自動巡航肯定會經過各種調整而更成熟。
這次事故最簡單的解決方案其實是不要完全依賴一種感測器,多個感測器協作(視頻,雷達等等)
而自動駕駛本身除了攝像頭之外肯定也配備了很多類似於雷達的設備,自動巡航功能可能成本所限,也不算自動駕駛,也需要駕駛員腳放在剎車上防止感測器失靈,所以並沒有配置多餘感測器。
大概就這樣。
---------------
評論區反饋,更新一下。
4. 特斯拉有12個超聲波雷達。15英尺。。也就是5米。。基本不能用來測量高速行駛中的障礙物,也就是停車用的。
5. 特斯拉有一個長距離雷達。搜了一下搜索不太到相關信息。能搜到的是: 這個雷達是輔助自動巡航系統的。其實其他的車,有自動巡航系統,都會有一個長距離雷達。特斯拉這個雷達幹嘛用的我不知道,但是根據我所知的車,這個雷達是用來輔助攝像頭鎖定移動物體的。並不是用來測距的。我所知的車,雖然有個長距離雷達在前面,但是應該都不能在一堵牆面前停下。
6. Google的系統叫LIDAR,應該有更複雜的測距演算法。然後特斯拉的老總Elon Musk說過下面這句話:
「I don』t think you need LIDAR. I think you can do this all with
passive optical and then with maybe one forward RADAR,」 Musk said
during at a press conference in October. 「I think that completely
solves it without the use of LIDAR. I』m not a big fan of LIDAR, I
don』t think it makes sense in this context.」
我覺得LIDAR不是必需的(很貴)。我覺得我們用一個光感攝像頭+前置雷達就足夠了。
這個事故是不是有點打臉?作者:綠小水
鏈接:如何看待特斯拉自動駕駛導致致死車禍? - 綠小水的回答
來源:知乎
著作權歸作者所有。商業轉載請聯繫作者獲得授權,非商業轉載請註明出處。
這是自動駕駛發展過程中的 Driscoll moment。 英國的 Bridget Driscoll 是第一起汽車交通事故致死案例中的受害者。
首先,每一起交通事故,尤其是嚴重的致人傷亡的交通事故,都不能對責任分割妄下結論。還是要等專業機構的鑒定結果。我不是很贊同這個題目,「自動駕駛導致致死車禍」。這隱含了一層意思就是如果是司機駕駛而非自動,就完全可以避免。而根據特斯拉自己的描述是「在天空明亮光線的照射下,不管是自動駕駛系統,還是司機,都沒有注意到挂車的白色面板,所以剎車系統並沒有啟動。」(這是摘錄新聞,出處我還沒有查)。
另一個方面考慮,如果司機當時像駕駛手冊要求的那樣在監督自動駕駛以便隨時接管的話,那麼,如果他發現了險情,是會在第一時間採取措施避免的。當然披露的有限的信息之中不知道他是否儘力干預了,所以,並不知道如果是人類肉眼觀察,能否發現機器沒有發現的隱患。如果特斯拉的辯解屬實的話,那麼就不能完全算是自動駕駛致死,而是有不可避免的成分的。
在為死者哀悼的同時,相信車企也要汲取教訓改善系統,畢竟現在大家對自動駕駛的信心還很脆弱。傳統車企也會時不時犯出不可饒恕的錯誤導致大規模召回,隨之而來的抑或是技術進步,抑或是更完善的規則,或者兼而有之。
新聞中還提到(同樣,我沒有查證出處)「特斯拉方面在6月30日作出回應稱,這是S型汽車自動駕駛功能激活使用行駛1.3億多英里過程中遇到的第一起致命事故,而全世界平均每6000萬英里行程就會發生一起致命車禍。」這話就說的不對了,先不說統計上的每一億英里和僅有一億英里的偷換概念,你特斯拉是給中產及以上人群提供高價服務的,扯上全世界算怎麼回事,什麼非洲印度之類欠發達交通狀況糟糕醫療不及時等等全算進去,有點丟范兒吧。美國司機的表現也比6000萬英里高啊。 我之前寫文章 無人駕駛,我一直在盼望,你一直在拖延! - 綠小水的文章 - 知乎專欄 查到的是美國司機也是超過一億英里才發生致死交通事故。反觀特斯拉,其實是在人類和機器「同時」駕駛的情況下做到的,因為我們並不知道是否有人類及時干預避免了重大交通事故的情況。
總之,希望儘快給出第三方的調查報告。讓車主和車企都可以更清楚事情的全貌。特斯拉是汽車行業後來者,急於提供傳統汽車品牌正在測試、不敢量產的技術。
這叫什麼?產品主要賣點嘛!
有這玩意兒,大公司表示可以開10場發布會。
可汽車行業之所以保守,是因為安全事關重大。電腦系統崩潰了不會死人,手機重啟了不會死人,可開車可是會死人的。
具體的分析可以看我寫的這篇文章:
獅?喵?特斯拉的「自動駕駛」就這水平
https://zhuanlan.zhihu.com/p/21470183
簡短地說:
賓士都做到了這樣還不敢說自己掌握了自動駕駛。
而特斯拉做到這樣,就被外界稱為「自動駕駛」了。
特斯拉只是輔助解決枯燥駕駛過程中的一些常見操作,例如油門、剎車和簡單地轉向。
駕駛安全靠自己!
駕駛安全靠自己!
駕駛安全靠自己!
以前也寫過怎麼提升駕駛技術的文章:
怎麼提高開車水平? - 知乎用戶的回答
現在的所為各種「自動駕駛」技術,連人類覺得很簡單的第一部分都遠未做到。
為什麼大家寧願看到各種違章駕駛導致的命案,也不願意給一項能在未來拯救無數生命的技術多一點寬容?
----------------------------------------------------
tesla採取的戰略就是通過大量的公路測試來提高自動駕駛技術,而且已經明確表示司機是在事故中負責的。
非自動駕駛車天天都車禍怎麼沒人關注。
我一直感覺無人駕駛汽車是一項概念上不自恰的技術,無人駕駛的意義何在?解放雙手以及更重要的解放人在駕駛時候的注意力?
然而就像這起案件所證實的,人在自動駕駛汽車裡並不能(我認為也不應該)放鬆警惕,放棄對行駛中的汽車的管理。自動駕駛,能應對的是幾乎所有非意外情形,而車禍的發生除了主動違反交通規則,幾乎都是意外,這恰恰是自動駕駛無法規避的,只有人,在意外事件中有預判以及適時避險的能力。
所以,自動駕駛的時候到底有沒有解放人類的精神呢?我看未必。設想中如果把我置於自動駕駛的汽車中,我始終會保持警覺甚至還要多加一份對於系統失靈造成意外的警覺,精神壓力只會更大而不會更小。
最後,人類作為自然界中的動物,保持適當的對於自身安全的警惕性是必須的也是根植在基因中的默認功能,任何企圖卸載這種功能的行為,我認為都是對人類自身安全的威脅。謝邀。
四分之一的良心果然在媒體啊(我就是和這句話扛上了……),特斯拉是無人駕駛么?人家自己都反覆說了駕駛員要時刻注意路況,為啥這突然就變成無人駕駛第一起命案了?這標題黨的。
而且這是特斯拉製造么?不好意思,這也不是,雖然對死者不敬,但是我要說這是傻逼製造。
我就不複述那個「防風,不防傻逼。」的梗了,大家都知道。
其實自從特斯拉的自動駕駛出來之後,各種說「啊啊啊啊自動駕駛讓我撞了車了啊。」的小事故還不少,結果基本都是駕駛員傻逼,我記得有個說「我才不會做出要踩剎車踩了油門這種事呢!」特斯拉「數據顯示你的確踩了油門。」「……」
這次事故的卡車駕駛員說「特斯拉的駕駛員似乎是在看視頻。」……我就不說啥了,特斯拉真不是無人駕駛。
石慶年指出,作為目前唯一實現大規模商用的自動駕駛車輛,特斯拉系統的自主學習能力目前無人能及。谷歌最早開始無人車測試,依靠幾輛小車在矽谷開來開去,開了這麼多年才收集了幾百萬公里的數據。但特斯拉不一樣,它實現了商業化,世界上有幾十萬台車載入了它的自動駕駛系統,意味著每天會上傳幾十萬台車的數據,大量數據能幫助它非常快地學習,並且學習能力會越來越強。
這個評論真有意思,谷歌不輕易上路,難道不是對用戶負責么?特斯拉用人命來快速迭代產品,好事變壞事,可以進特宣部了。
Tesla的自動巡航,無法檢測到車頭正前方的完全靜止障礙物!也就是說,如果道路上面突然有停的車輛或者有任何其他的靜止障礙物,開啟自動巡航的tesla會一股腦的撞上去!
這個不是演算法更新優化可以解決的,是受限於感測器,所以請大家不要對tesla的自動巡航有太高的期望!
周圍有三起因為自動巡航出事的,1.自動巡航撞上了停在高架上的清障車2.自動巡航在高速上撞了停在超車道修車的小麵包3.自動巡航撞上一根掉在路上的大樹枝
所以說,保持隨時警惕才是正確的駕駛方式
非常巧,在這個事情發生前一天,我剛剛看了一個車載毫米波雷達的項目。
死了人,推卸責任就無聊了。餓,我不是單指 Tesla ,也包括駕駛員。這個事情 Tesla 感測器的漏檢和駕駛員的疏忽都存在。這不是任何一方在引領進步,而是任何一方都有問題。
通過這件事情的廣泛報道,駕駛員的安全意識今後應該會有所加強。
而感測器的漏檢,現在看主要還是成本問題。靠攝像頭和演算法也許可以低成本的解決一些問題,可是 Tesla 這種價位的車上,是否應該搭配一些更可靠的長距離感測器?
演算法的更新和感測器的增加,兩者不應該是替代關係。最起碼自動駕駛的聯網汽車上,肯定是有成本空間增加類似毫米波雷達的長距離感測器的。首先吧,我估計大多數人和我一樣,沒買過沒開過特斯拉。
昨天和今天在上海安亭有一個自動駕駛的會議,各路人馬,車企的、高校的、互聯網的都在吐槽特斯拉,紛紛表示,我就說吧,早晚得出問題!
我覺得吧,站著說話不腰疼。
如果道路上跑的車全都具備特斯拉同一級別的自動駕駛技術,至少在高速公路上的交通事故發生率能減少95%以上。
特斯拉在推出高速公路自動駕駛之前,做過的道路測試超過2000萬英里,技術上其實是沒什麼問題的。
問題在於,特斯拉覺得自己作為新企業沒什麼負擔可以很激進地推出自動駕駛配置,但是卻把最重要的一環忽略了,就是人。
我在今天的會上也了解到了不少信息,其中就有幾位HMI專家指出特斯拉的HMI設計不好。特斯拉引以為傲的中控大屏實際上非常影響駕駛員的注意力,而且操控起來並不是很方便。而且特斯拉把自動駕駛狀態下駕駛員監測路面的責任寄希望於駕駛員在啟動功能前點個「同意」的按鈕,未免有點天真,所有人在安裝軟體的時候是真的同意了許可協議嗎?關鍵是不同意不給安裝啊!
特斯拉在設置啟動自動駕駛是有沒有環境條件檢測?既然把路況監測的責任交給駕駛員,有沒有相關的監測裝置來確保駕駛員的行為(技術可行且有產品,參考清華大學張偉博士)?既然是強光條件下,為什麼沒有攝像頭的failsafe?
另一方面,其他沒開特斯拉的人是否準備好自動駕駛了?事故里的卡車橫在路上肯定是有問題,特斯拉有沒有考慮過在自動駕駛條件下出現別的車違反交規的情況?憑什麼認定不會有車停下來甚至橫過來?
特斯拉覺得反正我說明白了駕駛員也同意了這鍋我不背,這樣的想法恐怕會被「政治正確」給搞死的。而且,目前的條件下用戶對自動駕駛的信任程度非常低,搞個樣車做演示的話,十次有一次成功了就行,搞出產品來,十次百次又一次問題,用戶就再也不信任你了。
對於其他做自動駕駛的人來講,有利也有弊,但是恐怕弊多一些,尤其是對於推崇特斯拉方案的人。對於政策法規對自動駕駛的利好,恐怕也要少了,至少會更謹慎。
對於圍觀的人來說,適當的監督和關注是有好處的,只是希望你們能友善一些,更多地看到自動駕駛技術的正面,未來真正成熟的自動駕駛技術一定會到來,智能汽車的時代一定會到來,而且會讓我們所有人都加入到其中去。一定會得出這樣的結論啊,自動駕駛車輛之所以出事故,是因為落後的人類駕駛車輛,不能與高級的人工智慧車輛進行信息溝通造成的,希望各國政府及早立法,禁住人類駕駛車輛上路,人類一切出行,運輸物流事宜統統交給控制無人駕駛車輛的公司進行,保證不會出事故,你只管在車上玩手機,睡覺就行。
其實我覺得關鍵問題並不是自動駕駛本身可靠性的問題,而是背後的倫理問題,因為使用了自動駕駛撞死了人,這是司機責任還是系統責任?如果汽車為避免相撞開上人行道,這又怎麼算?
科技走在倫理之前本身沒有問題,但在倫理問題沒有解決之前就放任科技,這才危險。Tesla唯一的責任是在設計階段沒有嚴格的和保守的界定什麼場景不能使用autopilot,並在這些場景堅決禁用autopilot的開啟。
其它的鍋,請丟給過度宣傳的無良媒體和瘋狂的司機,把現階段還是ADAS的autopilot當L3甚至L4全自動使用,草菅人命。要做到絕對安全,以後每個特斯拉的前引擎蓋里都得坐個老司機。
事實上他們已經考慮到了這點,一開始就把發動機裝在了後面。
當然,一點三億英里的統計數據我是服的。
對於新興事物或者非無條件認可範圍事物的安全性和可靠性,人們似乎都願意相信偶爾事件而不願意相信概率事件。
而對於無條件認可範圍的事物,卻反而尤為寬心,覺得這其中的風險項是自己可規避和可控的。(其實是很盲目自信的想法)
當無條件認可範圍內事物對比非信任區間內的事物時,主觀印象就會被拿出來對比偶然事件。得出後者是危險的,不可靠的結論。
在我看來這是非常愚昧的,如果基於大數據對比,可能會發現,很多群眾都認可的不安全的不可靠的東西,也許都是可信賴的(起碼從概率上來看)。
當然,人們對這種偶然事件的不信任和恐慌其實也有好處。就是,你需要更加努力,更加努力的去改變別人固有甚至是愚蠢的觀念,提升你的產品的可信賴度,這對消費者來說,當然也是件好事。(笑
最後:什麼是無條件認可範圍呢?我舉幾個栗子以及和他們對比的不認可事物:1、大眾的車都是安全的,而且也自然是比日系的車要安全得多。
2、轉基因對比人工、家養出來的事物更安全更衛生的東西。
諸如此類的反科學其實很多...不一一羅列了...
推薦閱讀:
※自動駕駛/智能駕駛已經成為了時下最熱門的話題之一,那麼實現這個技術的決定性因素有哪些呢?
※如何評價Tesla Semi Truck?
※特斯拉 (Tesla Motors) 中國區總經理鄭順景為什麼離職?
※鋁-空氣電池的前景怎樣?
※特斯拉為什麼用松下電池?
TAG:生活 | 自動駕駛 | 特斯拉汽車TeslaMotors |