數據挖掘系列關聯規則挖掘基本概念與Aprior演算法
4 人贊了文章
數據挖掘系列關聯規則挖掘基本概念與Aprior演算法
關聯規則挖掘在電商、零售、大氣物理、生物醫學已經有了廣泛的應用,本篇文章將介紹一些基本知識和Aprori演算法。
啤酒與尿布的故事已經成為了關聯規則挖掘的經典案例,還有人專門出了一本書《啤酒與尿布》,雖然說這個故事是哈弗商學院杜撰出來的,但確實能很好的解釋關聯規則挖掘的原理。我們這裡以一個超市購物籃迷你數據集來解釋關聯規則挖掘的基本概念:
TIDItemsT1{牛奶,麵包}T2{麵包,尿布,啤酒,雞蛋}T3{牛奶,尿布,啤酒,可樂}T4{麵包,牛奶,尿布,啤酒}T5{麵包,牛奶,尿布,可樂}
表中的每一行代表一次購買清單(注意你購買十盒牛奶也只計一次,即只記錄某個商品的出現與否)。數據記錄的所有項的集合稱為總項集,上表中的總項集S={牛奶,麵包,尿布,啤酒,雞蛋,可樂}。
一、關聯規則、自信度、自持度的定義
關聯規則就是有關聯的規則,形式是這樣定義的:兩個不相交的非空集合X、Y,如果有X-->Y,就說X-->Y是一條關聯規則。舉個例子,在上面的表中,我們發現購買啤酒就一定會購買尿布,{啤酒}-->{尿布}就是一條關聯規則。關聯規則的強度用支持度(support)和自信度(confidence)來描述,
支持度的定義:support(X-->Y) = |X交Y|/N=集合X與集合Y中的項在一條記錄中同時出現的次數/數據記錄的個數。例如:support({啤酒}-->{尿布}) = 啤酒和尿布同時出現的次數/數據記錄數 = 3/5=60%。
自信度的定義:confidence(X-->Y) = |X交Y|/|X| = 集合X與集合Y中的項在一條記錄中同時出現的次數/集合X出現的個數 。例如:confidence({啤酒}-->{尿布}) = 啤酒和尿布同時出現的次數/啤酒出現的次數=3/3=100%;confidence({尿布}-->{啤酒}) = 啤酒和尿布同時出現的次數/尿布出現的次數 = 3/4 = 75%。
這裡定義的支持度和自信度都是相對的支持度和自信度,不是絕對支持度,絕對支持度abs_support = 數據記錄數N*support。
支持度和自信度越高,說明規則越強,關聯規則挖掘就是挖掘出滿足一定強度的規則。
二、關聯規則挖掘的定義與步驟
關聯規則挖掘的定義:給定一個交易數據集T,找出其中所有支持度support >= min_support、自信度confidence >= min_confidence的關聯規則。
有一個簡單而粗魯的方法可以找出所需要的規則,那就是窮舉項集的所有組合,並測試每個組合是否滿足條件,一個元素個數為n的項集的組合個數為2^n-1(除去空集),所需要的時間複雜度明顯為O(2^N),對於普通的超市,其商品的項集數也在1萬以上,用指數時間複雜度的演算法不能在可接受的時間內解決問題。怎樣快速挖出滿足條件的關聯規則是關聯挖掘的需要解決的主要問題。
仔細想一下,我們會發現對於{啤酒-->尿布},{尿布-->啤酒}這兩個規則的支持度實際上只需要計算{尿布,啤酒}的支持度,即它們交集的支持度。於是我們把關聯規則挖掘分兩步進行:
1)生成頻繁項集
這一階段找出所有滿足最小支持度的項集,找出的這些項集稱為頻繁項集。
2)生成規則
在上一步產生的頻繁項集的基礎上生成滿足最小自信度的規則,產生的規則稱為強規則。
關聯規則挖掘所花費的時間主要是在生成頻繁項集上,因為找出的頻繁項集往往不會很多,利用頻繁項集生成規則也就不會花太多的時間,而生成頻繁項集需要測試很多的備選項集,如果不加優化,所需的時間是O(2^N)。
三、Apriori定律
為了減少頻繁項集的生成時間,我們應該儘早的消除一些完全不可能是頻繁項集的集合,Apriori的兩條定律就是干這事的。
Apriori定律1):如果一個集合是頻繁項集,則它的所有子集都是頻繁項集。舉例:假設一個集合{A,B}是頻繁項集,即A、B同時出現在一條記錄的次數大於等於最小支持度min_support,則它的子集{A},{B}出現次數必定大於等於min_support,即它的子集都是頻繁項集。
Apriori定律2):如果一個集合不是頻繁項集,則它的所有超集都不是頻繁項集。舉例:假設集合{A}不是頻繁項集,即A出現的次數小於min_support,則它的任何超集如{A,B}出現的次數必定小於min_support,因此其超集必定也不是頻繁項集。
利用這兩條定律,我們拋掉很多的候選項集,Apriori演算法就是利用這兩個定理來實現快速挖掘頻繁項集的。
四、Apriori演算法
Apriori是由a priori合併而來的,它的意思是後面的是在前面的基礎上推出來的,即先驗推導,怎麼個先驗法,其實就是二級頻繁項集是在一級頻繁項集的基礎上產生的,三級頻繁項集是在二級頻繁項集的基礎上產生的,以此類推。
Apriori演算法屬於候選消除演算法,是一個生成候選集、消除不滿足條件的候選集、並不斷循環直到不再產生候選集的過程。
上面的圖演示了Apriori演算法的過程,注意看由二級頻繁項集生成三級候選項集時,沒有{牛奶,麵包,啤酒},那是因為{麵包,啤酒}不是二級頻繁項集,這裡利用了Apriori定理。最後生成三級頻繁項集後,沒有更高一級的候選項集,因此整個演算法結束,{牛奶,麵包,尿布}是最大頻繁子集。
演算法的思想知道了,這裡也就不上偽代碼了,我認為理解了演算法的思想後,子集去構思實現才能理解更深刻,這裡貼一下我的關鍵代碼:
如果想看完整的代碼,可以查看我的github,數據集的格式跟本文所述的略有不通,但不影響對演算法的理解。http://cda.pinggu.org/view/19854.html
推薦閱讀:
※關聯規則分析-數據挖掘入門
※scikit-learn庫 決策樹結果檢驗
※Kaggle上的titanic項目(1)
TAG:數據挖掘 | 數據挖掘入門 | 數據挖掘演算法工程師 |