有誰給解釋一下流形以及流形正則化?


看你標籤有『機器學習』,那看來是問機器學習中的流形。

機器學習中的流形借用了數學中流形的概念,當機器學習並不真的去研究拓撲。更多的時候,機器學習中的流形是指數據分布在高維空間中的一個低維度的流形上面,意思就是數據本質上不是高維度的(所以處理起來不會像真正的高維數據一樣困難)。如圖:

數據看似分布在一個三維空間中,而實際上則是分布在一個捲曲的二維平面上,也就是數據的真實分布其實只有二維。直接在原始數據的高維空間中採用機器學習中的分類/回歸方法,往往會面對高維度帶來的模型高複雜度問題,導致模型的泛化能力下降,所以如果能夠講數據合理得展開在低維空間中,那麼能夠大大簡化模型複雜度。

很多真實數據都具備類似的性質,比如:同一張正面人臉在不同光照環境下的圖像集。

流形的概念很早就被引入到機器學習中,大量的降維方法都嘗試從高維空間中復原出低維數據(也就是把上面這種三維捲曲攤開,放在二維平面上),包括PCA(Principal Components Analysis)、LLE(Locally Linear Embedding)、MDS(Multidimensional Scaling)、Isomap、KPCA等。

回到問題中來,『流形正則化』其實就是在機器學習問題中的正則化項中加入和流形相關的項,利用數據中的幾何結構,起到半監督的作用,比如:兩個樣本在流形中距離相近,那麼他們的label也應該一樣或相似。

參考paper: Manifold Regularization: A Geometric Framework for Learning from Labeled and Unlabeled Examples

一個一般的機器學習有監督優化問題可以形式化成這樣(式子都來自於上面的參考):

其中第一項是經驗誤差,第二項是正則化項(RKHS表示),而加入了流形正則化的優化問題可以形式化成:

其實就是多了最後一項,作用是約束 f 的輸出使得輸出的y符合樣本x的分布所代表的幾何結構。約束 f 輸出的項可以是各種各樣的,比如常見的graph regularization:

其中 W_ij 表示i和j兩個樣本之間在流形上的近似度。

更加詳細的細節(推導、解釋以及這種優化目標對應的representor theorem的擴展)都在參考paper中。

應用中這麼幾個作用:
1. 利用樣本的空間分布信息
2. 給有監督模型加流形正則化,可以儘可能多得利用無監督的數據,使得模型轉化為半監督模型


推薦閱讀:

計算機視覺中,目前有哪些經典的目標跟蹤演算法?
經過足夠長的時間, AlphaGo 的棋譜能收斂到一張上嗎?
如何看待圍棋世界冠軍柯潔 0-3 負於 AlphaGo 後落淚?
為什麼現在的CNN模型都是在GoogleNet、VGGNet或者AlexNet上調整的?
隱馬爾可夫模型在金融領域應用前景如何?

TAG:數學 | 機器學習 | 有監督學習 | 無監督學習 |