標籤:

在機器學習時代,程序如何利用機器學習的原理反機器學習呢?


這個讓我想到了AI中的minimax搜索,雖然不是機器學習。minimax搜索的大意和我們下棋一樣,如果我走這一步,對方下一步會怎麼樣,我下一步怎麼應對,對方下一步會...在對抗性質的遊戲中,minimax搜索都可以起作用。


反偵察表意不明確 我把題目改成了"反機器學習".

這個問題雖然科幻,但的確有人做過研究並發表出來的.

我所知道的第一篇提到這種技術的是ICML2012的這篇文章 Poisoning Attacks against Support Vector Machines, B Biggio. 就是構造spam數據,用少量的惡意數據去劣化SVM分類機.

文章的數值實驗只添加了一個惡意數據就可以讓某經典的手寫識別的正確解答率下降了20%.具體實現方式我沒細看,只看結果似乎是叼爆了.

再說如何防範. 我覺得Robust最優化應該是最好的一個方法.拿SVM來說,我們可以構造一個最大最小問題,使數據最壞時的超平面Margin最大化,這樣就算有惡意數據(這種方法本來是防範某個範圍內的錯誤數據的,惡意數據其實不好說),也能保證分類器質量不會很差.雖然也是minmax問題,但跟上面的朋友提到的minmax不是同一個概念的.

關於Robust你可以參考Optimization for Machine Learning的Robust Optimization in Machine Learning那一章,裡面有介紹robust的一般構造方法.


之前看過報道有人在臉上劃幾道就把人臉檢測演算法給騙了。以目前機器學習的水平,想騙騙應該不難。


一直對機器學習比較剛興趣的,現在也學了些演算法的,被這麼說的話,感覺學得還有深一點才行啊!如果真的出現這樣的 Attacks,那還需要演算法的創新吧!就必須要對演算法有深一步的理解,不過現在很多人,在工作用到這方面的一些演算法,但基本都是調用絕大多數還是自己也不知道這方面對的原理和演算法的吧!還是需要學習啊!


chifung cheung: 我想你的意思是,在最極端的情況下,機器學習演算法是不是會表現很差。這是一個演算法穩定性與正確率的平衡問題。評價一個演算法,有幾種方式,其中一種是看最差情況的表現。用這樣的標準來評價一個機器學習演算法不太實際,因為人們通常更看重在實際中的表現。比如,廣告推薦系統,對於一個人推薦錯了,也沒什麼損失。如果是一套計算機安全系統或者股票價格預測演算法,我們可能就要看最差的情況,因為一旦出現最差情況可能會造成很大損失。這兩種不同的對於損失的計算,決定了我們選用什麼樣的優化函數。lee philip說的是一種對於極差情況也需要考慮的優化函數。


推薦閱讀:

資訊理論、信號處理等領域的研究近年來有哪些進展或突破?
最大熵模型中特徵函數f(x,y)的期望如何計算?
Markov Chain和Gibbs分布到底是什麼關係?
一系列正態分布的最大值,max(X1,...,Xn),是什麼分布?
哪裡能找到真實的較大數據集合?

TAG:機器學習 |