一文看盡三種針對人工智慧系統的攻擊技術及防禦策略

一文看盡三種針對人工智慧系統的攻擊技術及防禦策略

來自專欄機器之心59 人贊了文章

選自EliE,作者:Elie Bursztein,機器之心編譯。

本文綜述了三種針對人工智慧系統的攻擊技術——對抗性輸入、數據中毒攻擊及模型竊取技術,在每一種攻擊的討論中都加入了具體例子及防禦策略,旨在為所有對利用人工智慧進行反濫用防禦感興趣的人提供一個概述。

對分類器的高層次攻擊可以分為以下三種類型:

  • 對抗性輸入:這是專門設計的輸入,旨在確保被誤分類,以躲避檢測。對抗性輸入包含專門用來躲避防病毒程序的惡意文檔和試圖逃避垃圾郵件過濾器的電子郵件。
  • 數據中毒攻擊:這涉及到向分類器輸入對抗性訓練數據。我們觀察到的最常見的攻擊類型是模型偏斜,攻擊者以這種方式污染訓練數據,使得分類器在歸類好數據和壞數據的時候向自己的偏好傾斜。我們在實踐中觀察到的第二種攻擊是反饋武器化(feedback weaponization),它試圖濫用反饋機制來操縱系統將好的內容誤分類為濫用類(例如,競爭者的內容或者報復性攻擊的一部分)。
  • 模型竊取技術:用來通過黑盒探測「竊取」(即複製)模型或恢復訓練數據身份。例如,這可以用來竊取股市預測模型和垃圾郵件過濾模型,以便使用它們或者能夠針對這些模型進行更有效的優化。

這篇文章依次探討了每一類攻擊,提供了具體的例子,並且討論了可能的緩解方法。

這篇文章是關於如何使用人工智慧構建魯棒的反濫用保護系統系列文章中的第四篇,也是最後一篇。第一篇文章解釋了為何 AI 是構建魯棒的保護系統的關鍵,這種保護用來滿足用戶期望和日益提升的複雜攻擊。在介紹完構建和啟動一個基於 AI 的防禦系統的自然過程之後,第二篇博文涵蓋了與訓練分類器相關的挑戰。第三篇文章探討了在生產中使用分類器來阻止攻擊的主要困難。

這一系列文章是根據我在 RSA 2018 上的演講寫出來的。

攻擊機器學習視頻1_騰訊視頻?

v.qq.com圖標

聲明:這篇文章旨在為所有對利用人工智慧進行反濫用防禦感興趣的人提供一個概述,它是那些正在跳躍觀望的人的潛在藍圖。因此,這篇文章側重於提供一個清晰的高層次總結,有意不深入技術細節。也就是說,如果你是一名專家,我相信你會發現你以前沒有聽說過的想法、技術和參考資料,希望你會受到啟發,並進一步探索它們。

對抗性輸入

對手不斷用新的輸入/有效載荷來探測分類器,試圖逃避探測。這種有效載荷被稱為對抗性輸入,因為它們被明確設計成繞過分類器。

這是一個對抗輸入的具體例子:幾年前,一個聰明的垃圾郵件發送者意識到,如果同一個 multipart 附件在一封電子郵件中出現多次,Gmail 將只顯示上圖屏幕截圖中可見的最後一個附件。他將這一知識武器化,增加了不可見的第一個 multipart,其中包含許多著名的域,試圖逃避檢測。此攻擊是稱為關鍵字填充的攻擊類別的一個變體。

一般來說,分類器遲早會面臨兩種對抗性輸入:變異輸入,這是為避開分類器而專門設計的已知攻擊的變體;零日輸入,這是在有效載荷之前從未見過的。讓我們依次探究每一種對抗性輸入。

變異輸入

在過去的幾年裡,我們看到地下服務爆炸式增長,這種服務旨在幫助網路犯罪分子製造不可探測的有效載荷,在秘密世界中最有名的是 FUD(完全不可探測的) 有效載荷。這些服務從允許針對所有防病毒軟體測試有效負載的測試服務,到旨在以使惡意文檔不可檢測的方式混淆惡意文檔的自動打包程序。上面的截圖展示了兩個這樣的服務。

專門從事有效載荷製造的地下服務的重新出現凸顯了這樣一個事實:

攻擊者主動優化攻擊,以確保最小化分類器檢測率。

因此,必須開發檢測系統,使攻擊者難以進行有效負載優化。下面是三個關鍵的設計策略來幫助實現這一點。

1. 限制信息泄露

這裡的目標是確保攻擊者在探查你的系統時獲得儘可能少的收穫。保持反饋最小化並儘可能延遲反饋是很重要的,例如避免返回詳細的錯誤代碼或置信度值。

2. 限制探測

此策略的目標是通過限制攻擊者針對你的系統測試有效負載的頻率來降低攻擊者的速度。通過限制攻擊者對你的系統執行測試的頻率可以有效降低他們設計有害有效負載的速度。

這一策略主要是通過對稀缺資源(如 IP 和帳戶)實施速率限制來實現的。這種速率限制的典型例子是要求用戶解決驗證碼,驗證他是否發布的太頻繁,如上所示。

這種主動限制活動率的負面影響是,它會鼓勵不良行為者創建假賬戶,並使用受損的用戶計算機來分散他們的 IP 池。業內廣泛使用限速是非常活躍的黑市論壇興起的一個主要驅動因素,在這些論壇中,賬戶和 IP 地址被常規出售,如上面的截圖所示。

3. 集成學習

最後但同樣重要的是,結合各種檢測機制,使攻擊者更難繞過整個系統。使用集成學習將基於聲譽的檢測方法、人工智慧分類器、檢測規則和異常檢測等不同類型的檢測方法結合起來,提高了系統的魯棒性,因為不良行為者不得不同時製作避免所有這些機制的有效載荷。

例如,如上面的截圖所示,為了確保 Gmail 分類器對垃圾郵件製造者的魯棒性,我們將多個分類器和輔助系統結合在一起。這樣的系統包括聲譽系統、大型線性分類器、深度學習分類器和其他一些秘密技術。

深度神經網路對抗攻擊實例

如何製作欺騙深度神經網路(DNN)的對抗例子是一個非常活躍的相關研究領域。現在,創建難以察覺的擾動,徹底騙過 DNN 是一件小事,如上面從論文《Explaining and Harnessing Adversarial Examples》(arxiv.org/abs/1412.6572)截取的圖片所示。

最近的研究 (arxiv.org/abs/1711.1156) 表明,CNN 容易受到對抗性輸入攻擊,因為他們傾向於學習表面的數據集的規則性,而不是很好地泛化和學習不太容易受到雜訊影響的高級表徵。

機器學習攻擊_騰訊視頻?

v.qq.com圖標

這種攻擊會影響所有 DNN,包括基於增強學習的 DNN (arxiv.org/abs/1701.0414 ),如上面視頻中所強調的。要了解更多關於此類攻擊的信息,請閱讀 Ian Goodfellow 關於此主題的介紹文章,或者開始嘗試 Clever Hans 的實驗 (github.com/tensorflow/c)。

從防禦者的角度來看,這種類型的攻擊已經被證明(到目前為止)是非常有問題的,因為我們還沒有有效的方法來防禦這種攻擊。從根本上說,我們沒有一種有效的方法讓 DNN 為所有輸入產生良好的輸出。讓他們這樣做是非常困難的,因為 DNN 在非常大的空間內執行非線性/非凸優化,我們還沒有教他們學習泛化良好的高級表徵。你可以閱讀 Ian 和 Nicolas 的深度文章(cleverhans.io/security/)來了解更多關於這個的信息。

零日輸入

另一種可以完全拋棄分類器的明顯的對抗性輸入是新的攻擊。新的攻擊不常發生,但知道如何應對仍然很重要,因為它們可能具有相當大的破壞性。

儘管出現新攻擊有許多不可預測的潛在原因,但根據我們的經驗,以下兩種事件可能會觸發新攻擊的出現:

  • 新產品或功能推出:本質上,增加功能會為攻擊者打開新攻擊面,有利於它們快速進行探查。這就是為什麼新產品發布時提供零日防禦是必要的(但很難)。
  • 增加獎勵 :雖然很少討論,但許多新的攻擊激增是由攻擊媒介推動的,變得非常有利可圖。這種行為最近的一個例子是,針對 2017 年底比特幣價格飆升,濫用 Google Cloud 等雲服務來挖掘加密數字貨幣的行為有所抬頭。

隨著比特幣價格飆升至 1 萬美元以上,我們看到新的攻擊風起雲湧,企圖竊取 Google 雲計算資源用於挖掘。稍後我將在這篇文章中介紹我們是如何發現這些新攻擊的。

總之,Nassim Taleb 形式化的黑天鵝理論(Black swan theory)適用於基於人工智慧的防禦,就像它適用於任何類型的防禦一樣。

不可預測的攻擊遲早會拋棄你的分類器並將產生重大影響。

然而,不是因為你無法預測哪些攻擊會拋棄你的分類器,或者這樣的攻擊什麼時候會攻擊你,而你無能為力。你可以圍繞這類襲擊事件進行規劃,並制定應急計劃來緩解這種情況。在為黑天鵝事件做準備時,這裡有幾個可以探索的方向。

1. 制定事件響應流程

首先要做的是開發和測試事件恢復過程,以確保在措手不及時做出適當反應。這包括但不限於:在調試分類器時,有必要的控制項來延遲或停止處理,並知道調用哪個。

Google SRE(站點可靠性工程)手冊有一章關於事件管理(landing.google.com/sre/),還有一章關於應急響應 ( landing.google.com/sre/)。有關更加以網路安全為中心的文檔,應該查看 NIST (National Institute of Standards and Technology)網路安全事件恢復指南(nvlpubs.nist.gov/nistpu)。最後,如果你更願意看一段對話,請看一下「Google 如何運行災難恢復培訓 (DiRT) 程序」的視頻 (usenix.org/conference/l),以及「Faceboook 如何做出事件響應」的視頻(usenix.org/node/197445)。

2. 使用遷移學習來保護新產品

明顯的關鍵困難是你沒有過去的數據來訓練你的分類器。緩解這一問題的一種方法是利用遷移學習,它允許你重用一個域中已經存在的數據,並將其應用到另一個域。

例如,如果你處理圖像,你可以利用現有的預先訓練好的模型(keras.io/applications/),而如果你處理文本,你可以使用公共數據集,比如Toxic Comment的 Jigsaw 數據集。

3. 利用異常檢測

異常檢測演算法可以用作第一道防線,因為從本質上說,新的攻擊將產生一組從未遇到過的異常,這些異常與它們如何使用你的系統有關。

引發一系列新反常現象的新攻擊的歷史性案例是針對馬薩諸塞州 WinFall 彩票遊戲的麻省理工賭博集團攻擊(theatlantic.com/busines)。

早在 2005 年,多個賭博集團就發現了 WinFall 彩票系統的一個缺陷:當累積獎金在所有參與者之間平分時,你每買一張 2 美元的彩票,平均就能掙 2.3 美元。每次資金池超過 200 萬美元時,這種被稱為「roll-down」的分裂就會發生。

為了避免與其他團體分享收益,麻省理工學院的團體決定提前三周大規模買斷彩票,從而引發一場減持行動。很明顯,這種從極少數零售商手中購買的大量彩票造成了彩票組織察覺到的大量異常現象。

最近,正如本文前面提到的,當比特幣價格在 2017 年瘋狂上漲時,我們開始看到一大批不良行為者試圖通過免費使用 Google cloud 實例進行挖掘,從這一熱潮中獲益。為了免費獲取實例,他們試圖利用許多攻擊媒介,包括試圖濫用我們的免費層、使用被盜信用卡、危害合法雲用戶的計算機以及通過網路釣魚劫持雲用戶的帳戶。

很快,這種攻擊變得非常流行,以至於成千上萬的人觀看了 YouTube 上關於如何在 Google cloud 上挖掘的教程(這在正常情況下是無利可圖的)。顯然,我們無法預料惡意挖礦會成為如此巨大的問題。

幸運的是,當異常發生時,我們已經為 Google Cloud 實例準備了異常檢測系統。正如預料的那樣,從我們的異常檢測系統儀錶板上直接獲取的上圖中可以看出,當實例開始挖掘時,它們的時間行為發生了巨大的變化,因為關聯的資源使用與未妥協的雲實例所顯示的傳統資源使用有著根本的不同。我們能夠使用這種移位檢測來遏制這種新的攻擊媒介,確保涉及到的雲平台和 GCE 客戶端保持穩定。

數據中毒

分類器面臨的第二類攻擊涉及試圖毒害你的數據以使你的系統行為出錯的對手。

模型偏斜

第一種中毒攻擊稱為模型偏斜,攻擊者試圖污染訓練數據,以移動分類器對好、壞輸入歸類的學習邊界。例如,模型偏斜可以用來試圖污染訓練數據,欺騙分類器將特定的惡意二進位文件標記為良性。

具體例子

在實踐中,我們經常看到一些最先進的垃圾郵件製造者團體試圖通過將大量垃圾郵件報告為非垃圾郵件來使 Gmail 過濾器偏離軌道。如圖所示,2017 年 11 月底至 2018 年初,至少有 4 次大規模惡意行動試圖歪曲我們的分類器。

因此,在設計基於 AI 的防禦時,你需要考慮以下事實:

攻擊者積極地試圖將學到的濫用和合理使用之間的界限轉移到對他們有利的位置。

緩解策略

為了防止攻擊者歪曲模型,可以利用以下三種策略:

  • 使用合理的數據採樣:需要確保一小部分實體(包括 IP 或用戶)不能占模型訓練數據的大部分。特別是要注意不要過分重視用戶報告的假陽性和假陰性。這可能通過限制每個用戶可以貢獻的示例數量,或者基於報告的示例數量使用衰減權重來實現。
  • 將新訓練的分類器與前一個分類器進行比較以估計發生了多大變化。例如,可以執行 dark launch,並在相同流量上比較兩個輸出。備選方案包括對一小部分流量進行 A/B 測試和回溯測試。
  • 構建標準數據集,分類器必須準確預測才能投入生產。此數據集理想地包含一組精心策劃的攻擊和代表你的系統的正常內容。這一過程將確保你能夠在武器化攻擊對你的用戶產生負面影響之前,檢測出該攻擊何時能夠在你的模型中產生顯著的回歸。

反饋武器化

第二類數據中毒攻擊是將用戶反饋系統武器化,以攻擊合法用戶和內容。一旦攻擊者意識到你正在出於懲罰的目的以某種方式使用用戶反饋,他們就會試圖利用這一事實為自己謀利。

具體例子

我們在 2017 年目睹的最令人震驚的將用戶反饋武器化的嘗試之一是一群 4chan 用戶,他們決定通過留下數千個 1 星評級破壞 CNN 在應用商店的排名。

反饋武器化之所以被壞人積極利用,有很多原因,包括:試圖壓制競爭、進行報復、掩蓋自己的行蹤。上面的截圖展示了一個黑市帖子,討論了如何使用 Google 來擊敗競爭對手。

因此,在構建系統時,你需要在以下假設下工作:

任何反饋機制都將被武器化以攻擊合法用戶和內容。

緩解策略

在緩解反饋武器化的過程中,需要記住以下兩點:

  • 不要在反饋和懲罰之間建立直接循環。相反,在做出決定之前,確保評估反饋真實性,並將其與其他信號結合起來。
  • 不要以為受益於濫用內容的所有者對此負有責任。舉例來說,不是因為一張照片得到了數百個假的「贊」所有者才買下它。我們已經看到無數襲擊者為了掩蓋他們的蹤跡或試圖讓我們懲罰無辜用戶而榨取合法內容的案例。

模型竊取襲擊

如果不提及旨在恢復訓練期間使用的模型或數據信息的攻擊,這篇文章將是不完整的。這種攻擊是一個關鍵問題,因為模型代表了有價值的知識產權資產,這些資產是根據公司的一些最有價值的數據進行訓練的,例如金融交易、醫療信息或用戶交易。

確保接受過用戶敏感數據(如癌症相關數據等)訓練的模型的安全性至關重要,因為這些模型可能被濫用,泄露敏感用戶信息 ( cs.cornell.edu/~shmat/s )。

攻擊

模型竊取的兩個主要攻擊是:

  • 模型重建:這裡的關鍵思想是攻擊者能夠通過探測公共 API 來重新創建模型,並通過將其用作 Oracle 來逐步完善自己的模型。最近的一篇論文(usenix.org/system/files)表明,這種攻擊似乎對大多數人工智慧演算法有效,包括支持向量機、隨機森林和深度神經網路。
  • 成員泄露:在這裡,攻擊者構建影子模型,使他能夠確定給定的記錄是否用於訓練模型。雖然此類攻擊無法恢復模型,但可能會泄露敏感信息。

防禦

最著名的防禦模型竊取攻擊的方法是 PATE ( arxiv.org/abs/1802.0890),這是一個由 Ian Goodfellow 等人開發的隱私框架。如上圖所示,PATE 背後的關鍵思想是對數據進行劃分,並訓練多個組合在一起的模型來做出決策。這一決策隨後被其他不同隱私系統的雜訊所掩蓋。

要了解更多有關差分隱私的信息,請閱讀 Matt 的介紹文章(blog.cryptographyengineering.com)。要了解更多關於 PATE 和模型竊取攻擊的信息,請閱讀 Ian 關於此主題的文章(cleverhans.io/privacy/2)。

結論

是時候結束這一系列關於如何利用人工智慧打擊欺詐和濫用的長文了。本系列的主要收穫(詳見第一篇文章)是:

AI是構建滿足用戶期待的保護機制和應對愈加複雜的攻擊的關鍵。

正如這篇文章和前兩篇文章所討論的那樣,要使這項工作在實踐中發揮作用,還有一些困難需要克服。但是,既然 AI 框架已經成熟並有很好的文檔記錄,那麼在你的防禦系統中開始使用 AI 是再好不過的時候了,所以不要對這些挑戰望而卻步。

原文鏈接:elie.net/blog/ai/attack


推薦閱讀:

毫無還手之力!OpenAI人工智慧5v5擊敗超凡5玩家
思想者|顧曉鳴:人工智慧到底能不能超越「人有智能」?
【閑扯】制度設計的不可能完美猜想
如何領跑自動駕駛這場競賽
實景照片秒變新海誠風格漫畫:清華大學提出CartoonGAN

TAG:人工智慧 | 人工智慧演算法 | 科技 |