基於遷移學習(Transfer learning)的反欺詐(二)

正如《基於遷移學習(Transfer learning)的反欺詐(一)》文末所述,遷移學習的關鍵,用四個字概括,就是「找對巨人」,也就是需要找到不同場景之間的關聯和共性(特徵),本文就系統性地介紹一下遷移學習的幾種方法。

首先,來看幾個定義。

1. Domain:

包含兩個component,一是向量空間X,一個是X的分布P(X)

2. Task:

給定一個特定的domain和label空間Y,對於domain里每一個xi,都可以預測出相應的yi。通常,如果兩個task不同,那麼其通常有不同的label空間,或者不同的條件分布P(Y|X)

3. Source domain:

如果把一個task A上的knowledge遷移到task B上,那麼就說task A對應的domain就是Source domain, P(XS)

4. Target domain:

如果把一個task A上的knowledge遷移到task B上,那麼就說task B對應的domain就是Target domain, P(XT)

下面,根據標籤的情況,將遷移學習分為三種類型:

Vontear在其blog里有一個形象的說明,在此引用下其說明:

Transductive Learning: 從彼個例到此個例,有點象英美法系,實際案例直接結合過往的判例進行判決。關注具體實踐。

Inductive Learning:從多個個例歸納出普遍性,再演繹到個例,有點象大陸法系,先對過往的判例歸納總結出法律條文,再應用到實際案例進行判決。從有限的實際樣本中,企圖歸納出普遍真理,傾向形而上,往往會不由自主地成為教條。

而對於unsupervised learning ,黃姐姐在其「大數據反欺詐」專欄前述文章中有大量的介紹,在此不再重複。

根據遷移的對象,可以將遷移學習分為四種類型:

以下,具體介紹一下幾種常用的思路。

  • Inductive Transfer Learning + Instance-transfer

適用條件:Source Domain和Target Domain數據的特徵(feature)和標籤(label)完全相同。

處理方式:重新調整source domain的權重,應用於target domain。

舉例:信用卡申請的申請表和小額貸款的申請表的申請欄位相同,其他埋點信息也相同,且最終的結論都是【通過】和【拒絕】。那麼,在兩者的申請場景下,可以採用此種方法。

  • Inductive Transfer Learning + Feature-representation -transfer

適用條件:Task之間具有一定關聯性,且包含共同的特徵

處理方式:把每一個task作為輸入,用task之間共同的feature來建模。解釋一下,首先你要通過一些方法將source domain里無標籤的數據做一個更高level的提煉,稱為representation;然後要將target domain的數據也做一個類似的轉換,即representation;這樣,我們就可以用可以利用representation來作為建模,且使用與representation相關的標籤了。(很像求最小公倍數的思路)

舉例:這也是一種常用的思路。舉一個最經典的例子,信用卡還款,有各種逾期行為,我們定義壞人的方式是認為M3&M3+;消費貸分期,也會有各種沒有按時還款的行為,而這個定義是M2&M2+。看上去兩個定義不同,但我們給這樣一個新定義:壞人。此處,【壞人】就是一個共同的feature,也就是我們的定義representation。

  • Inductive Transfer Learning + Parameter-transfer

適用條件:Task之間具有一定關聯性,且在某個獨立模型中共用一些參數。

處理方式:提取共用的參數直接遷移即可,這種方式在多任務模型(Multiple tasks model)中應用比較廣泛。

舉例:在《基於遷移學習(Transfer learning)的反欺詐(一)》中的關於識別男女和識別人類的多層神經網路的應用,就是一個非常典型的parameter-transfer的例子。

  • Inductive Transfer Learning + Relational-knowledge-transfer

適用條件:Source domain的內部關係和target domain的內部關係有相似性。什麼意思呢?舉個??:在學術領域和影視業就有如下相似的關係。

處理方式:將source domain學習到的MLN(Markov Logic Network)遷移到target domain中,輸出一個針對target domain的新的MLN。

舉例:這個可以用來分析新的團伙欺詐模式,例如信用卡申請和銀行放貸的內外勾結、中介機構包裝偽造信息等。

此外,Transductive Transfer Learning與Instance-transfer和Feature-representation-transfer相結合的應用與上述第一種和第二種類似。

對於Unsupervised transfer learning,通常應用於source domain有大量無標籤數據,而target domain的數據量比較小且也是無標籤的情況,採用的方式為Feature-representation-transfer方法。特別地,基於層次聚類方法論,採用parameter-transfer也可以大幅提高模型的運算效率。

至此,我們已經了解了比較主流的遷移學習方法。那麼,我們還有最後一個問題:如何能夠避免找錯巨人而誤入大坑(專業名詞為negative transfer)呢?Sinno Jialin Pan提出過一個防止誤入大坑的建議(黑色對號)。而基於黃姐姐的實際項目經驗,將調整後的表格修改如下(紅色對號為黃姐姐添加):

綜上,Transfer Learning對於提高模型運算效率有十分重要的意義。然而,是否能夠遷移,如何進行有效地遷移仍然是建模工程師重點關注的。對於已知欺詐,Transfer learning具有更好的適用性,而對於未知欺詐,若想使用transfer learning,通常還是需要配合一些背景調查以及一些標籤和業務知識輸入,否則,也較難適用。


感謝作者:

Sinno Jialin Pan, Qiang Yang, ieeexplore.ieee.org/doc

Lars Hulstaert, https://www.datacamp.com/community/tutorials/transfer-learning

Vontear, blog.csdn.net/smallston

推薦閱讀:

TAG:遷移學習TransferLearning | 大數據風控 | 反欺詐 |