威脅預警!不用再黑進系統,只要在指示牌上貼紙就可以擾亂自駕車!

儘管對研究人員而言攻擊汽車已經不是什麼新鮮事了,但是針對汽車的攻擊行為依然是一個熱門話題。以前,研究人員已經演示過如何遠程劫持汽車、如何禁用汽車的關鍵功能,如安全氣囊等,甚至如何竊取汽車。

但是最新的汽車攻擊手段不需要藉助任何額外的技能就可以輕鬆實現,你需要做的只是將一個簡單的貼紙貼在標誌牌上即可混淆任何自駕車並造成安全事故。

在「車輛與基礎設施互聯」(V2I)技術普及之前,現階段自駕車與駕駛輔助系統還是需要倚靠視覺辨識,才能通過號誌牌確認道路的使用狀態。但根據一項來自華盛頓大學、密西根大學、石溪大學和加利福尼亞大學的研究顯示,欺騙自動駕駛車輛其實非常容易,任何人都可以在家中列印一些貼紙,並將其貼在路牌上,簡單的步驟就可以讓深度學習的視覺系統被欺騙,並最終導致意外發生。

重點是,這些貼紙雖然看起來像是塗鴉的惡作劇,但實際上卻是一種用來欺騙混淆行車輔助視覺系統的新型演算法。例如,這種演算法誤導自駕車的輔助視覺系統把「停止(Stop)」標誌判斷成了「限速」牌,進而可能造成行車意外。

近日,華盛頓大學的安全研究員 Yoshi Kohno在一篇名為《Robust Physical-World Attacks on Machine Learning Models》的研究論文中,就展示了他與同事們開發的這種新的演算法「Robust Physical Perturbations」(RP2),簡單地通過彩色印表機和相機生成一些彩色或者黑白的圖案,就可以迷惑自動駕駛汽車用於記錄和分析道路信息的路標分類器(road sign classifier)。

研究人員用這套演算法做了兩種方式的嘗試,使用的都只是家用彩色印表機。其中一個實驗是列印出了一張右轉彎的標誌,覆蓋在原有的路牌上;另一個是用彩色貼紙給「停車」(STOP)標誌牌貼出了「love」和「hate」兩個單詞,對應的路標分類器將其都誤認為是限速 45英里/小時(約為72千米/小時)的標誌。這兩種實驗在 1.5-12米的範圍內、5-40 度視角內都有效。

【列印出一張右轉彎的標誌,覆蓋在原有的路牌上】

【在「停車」(STOP)標誌牌貼上「love」和「hate」兩個單詞】

此外,研究人員還用一塊較小的貼紙貼在「停止」標誌牌上進行遮掩,造成一部分視覺障礙,結果100%的自動駕駛汽車將該標誌牌識別為一件街頭藝術品,未予理睬。

這種情況與自動駕駛系統所使用的圖像識別和深度學習演算法有關係,深度學習演算法用來研究、分類這些道路上記錄的行人、指示燈以及其他車輛等信息。而圖像識別系統先記錄再進行分類識別,但使用演算法來研究這些道路指示牌就很容易出現問題。

在這份研究論文中,研究人員寫道:

我們認為,考慮到警告信號的相似性,一些微小的干擾就足以使分類器感到困惑。在未來的工作中,我們計劃通過對其他警告標誌進行有針對性的分類攻擊來探索這一假設。

修改道路指示牌雖說是違法的,但並不代表沒有人會惡意塗改。畢竟對於有心攻擊或對這類系統進行惡作劇的人士而言,這樣簡單貼上特製圖樣貼紙的方式,確實要比黑入單一車輛系統要來得簡易很多。也就意味著,雖然這只是一個小概率事件,但在一些人為惡意操作,或者是惡劣天氣下,這種情況仍然可能會發生。

針對這樣的狀況,看來道路養護單位需要對類似刻意污損塗鴉號誌的問題提高警惕。然而在這類車輛全面導入 V2I 之前,除了改採用具備可驗證信息正確性圖樣的標誌牌或通過邏輯判斷之外,可能就只能通過物理上的讓人不能靠近標誌牌或使用很難進行改造或黏貼的材質等方面來進行防止了。

其實這已經不是自動駕駛系統第一次出現潛在的隱患。此前沃爾瑪自動駕駛項目 Drive Me 的技術總監戴維·皮克特就承認,當澳洲的袋鼠跳到空中時,他們在測試的自動駕駛汽車會判斷袋鼠跟車的距離拉開,可能沒法及時調整車速,最終可能會導致碰撞事件。

如此看來,在識別路牌的問題上,自動駕駛汽車暫時還沒有人眼好用哦。

本文翻譯自:thehackernews.com/2017/autoblog.com/amp/2017/0,如若轉載,請註明來源於嘶吼: 4hou.com/info/news/7118 更多內容請關注「嘶吼專業版」——Pro4hou

推薦閱讀:

獨家 | 李開復:談無人車安卓為時尚早,投自動駕駛有三個標準
福特將一個男人偽裝成汽車座椅,以此來研究自動駕駛
無人車感知系統(雙目視覺+雷達)如何搭建平台(ROS還是自己在Linux搭)?
谷歌都沒完善的技術,長安竟然完成了?

TAG:信息安全 | 无人车 |