若當時你也在泰坦尼克號上,能否活下來嗎?
1.目標
本次使用隨機森林來改進這個Titanic的項目,通過對數據集的訓練,使得自己的結果達到競賽結果排名2%以內,這個是主要的目標。
2. 競賽內容介紹
Titanic倖存預測是Kaggle上參賽人數最多的競賽之一。它要求參賽選手通過訓練數據集分析出什麼類型的人更可能倖存,並預測出測試數據集中的所有乘客是否生還。
該項目是一個二元分類問題。
3.如何取得排名前2%的成績
3.1載入數據
(1)在載入數據之前,先通過如下代碼載入之後會用到的所有R庫
library(readr) # File read / writelibrary(ggplot2) # Data visualizationlibrary(ggthemes) # Data visualizationlibrary(scales) # Data visualizationlibrary(plyr)# Data manipulationlibrary(stringr) # String manipulationlibrary(InformationValue) # IV / WOE calculationlibrary(MLmetrics) # Mache learning metrics.e.g. Recall, Precision,Accuracy, AUClibrary(rpart) # Decision tree utilslibrary(randomForest) # Random Forestlibrary(dplyr) # Data manipulationlibrary(e1071) # SVMlibrary(Amelia) # Missing value utilslibrary(party) # Conditional inference treeslibrary(gbm) # AdaBoostlibrary(class) # KNN
這裡需要注意的是載入不成功的時候怎辦?特別是遇到如下問題:
經過google之後發現有2種辦法能夠解決(https://stackoverflow.com/questions/5700505/windows-7-update-packages-problem-unable-to-move-temporary-installation)
翻譯過來第一種就是有可能是殺毒軟體對與文件的保護,要關掉殺毒軟體,如XX管家之類的;第二種就是要根據已經下載好的包解壓到相應的目錄中去就可以了,使用這種辦法記得多載入幾次,並且重啟你的Rstudio。
(2)通過如下代碼將訓練數據和測試數據分別載入到名為train和test的data.frame中
train <-read_csv("train.csv")test <-read_csv("test.csv")
以我為例,我這裡需要先複製兩個數據集到根目錄下D:用戶目錄我的文檔,然後才能運行以上的代碼,當然你也可以直接輸入絕對目錄去讀取。
由於之後需要對訓練數據和測試數據做相同的轉換,為避免重複操作和出現不一至的情況,更為了避免可能碰到的Categorical類型新level的問題,這裡建議將訓練數據和測試數據合併,統一操作。
data<- bind_rows(train, test)train.row<- 1:nrow(train)test.row<- (1 + nrow(train)):(nrow(train) + nrow(test))
3.2數據預覽
先觀察數據
str(data)
運行結果:
Classes 『tbl_df』, 『tbl』 and "data.frame": 1309 obs. of 12 variables:$ PassengerId: int 1 2 3 4 5 6 7 8 9 10 ...$ Survived : int 0 1 1 1 0 0 0 0 1 1 ...$ Pclass : int 3 1 3 1 3 3 1 3 3 2 ...$ Name : chr "Braund, Mr. Owen Harris" "Cumings, Mrs. John Bradley (Florence Briggs Thayer)" "Heikkinen, Miss. Laina" "Futrelle, Mrs. Jacques Heath (Lily May Peel)" ...$ Sex : chr "male" "female" "female" "female" ...$ Age : num 22 38 26 35 35 NA 54 2 27 14 ...$ SibSp : int 1 1 0 1 0 0 0 3 0 1 ...$ Parch : int 0 0 0 0 0 0 0 1 2 0 ...$ Ticket : chr "A/5 21171" "PC 17599" "STON/O2. 3101282" "113803" ...$ Fare : num 7.25 71.28 7.92 53.1 8.05 ...$ Cabin : chr NA "C85" NA "C123" ...$ Embarked : chr "S" "C" "S" "S" ...
從上可見,數據集包含12個變數,1309條數據,其中891條為訓練數據,418條為測試數據。
- PassengerId 整型變數,標識乘客的ID,遞增變數,對預測無幫助
- Survived 整型變數,標識該乘客是否倖存。0表示遇難,1表示倖存。將其轉換為factor變數比較方便處理
- Pclass 整型變數,標識乘客的社會-經濟狀態,1代表Upper,2代表Middle,3代表Lower
- Name 字元型變數,除包含姓和名以外,還包含Mr.
Mrs. Dr.這樣的具有西方文化特點的信息
- Sex 字元型變數,標識乘客性別,適合轉換為factor類型變數
- Age 整型變數,標識乘客年齡,有缺失值
- SibSp 整型變數,代表兄弟姐妹及配偶的個數。其中Sib代表Sibling也即兄弟姐妹,Sp代表Spouse也即配偶
- Parch 整型變數,代表父母或子女的個數。其中Par代表Parent也即父母,Ch代表Child也即子女
- Ticket 字元型變數,代表乘客的船票號 Fare 數值型,代表乘客的船票價
- Cabin 字元型,代表乘客所在的艙位,有缺失值
- Embarked 字元型,代表乘客登船口岸,適合轉換為factor型變數
3.3探索式數據分析
3.3.1乘客社會等級越高,倖存率越高
對於第一個變數Pclass,先將其轉換為factor類型變數。
data$Survived <- factor(data$Survived)
可通過如下方式統計出每個Pclass倖存和遇難人數,如下:
ggplot(data = data[1:nrow(train),], mapping = aes(x = Pclass, y = ..count.., fill=Survived)) + geom_bar(stat = "count", position="dodge") + xlab("Pclass") + ylab("Count") + ggtitle("How Pclass impact survivor") + scale_fill_manual(values=c("#FF0000", "#00FF00")) + geom_text(stat = "count", aes(label = ..count..), position=position_dodge(width_=1), , vjust=-0.5) + theme(plot.title = element_text(hjust = 0.5), legend.position="bottom")
從上圖可見,Pclass=1的乘客大部分倖存,Pclass=2的乘客接近一半倖存,而Pclass=3的乘客只有不到25%倖存。
為了更為定量的計算Pclass的預測價值,可以算出Pclass的WOE和IV如下。從結果可以看出,Pclass的IV為0.5,且「Highly Predictive」。由此可以暫時將Pclass作為預測模型的特徵變數之一。
WOETable(X=factor(data$Pclass[1:nrow(train)]), Y=data$Survived[1:nrow(train)])
結果:
CAT GOODS BADS TOTAL PCT_G PCT_B WOE IV1 1 136 80 216 0.3976608 0.1457195 1.0039160 0.252927922 2 87 97 184 0.2543860 0.1766849 0.3644848 0.028320873 3 119 372 491 0.3479532 0.6775956 -0.6664827 0.21970095
IV(X=factor(data$Pclass[1:nrow(train)]), Y=data$Survived[1:nrow(train)])
結果:
[1] 0.5009497attr(,"howgood")[1] "Highly Predictive"
3.3.2不同Title的乘客倖存率不同
乘客姓名重複度太低,不適合直接使用。而姓名中包含Mr. Mrs. Dr.等具有文化特徵的信息,可將之抽取出來。
本文使用如下方式從姓名中抽取乘客的Title
data$Title <- sapply(data$Name, FUN=function(x) {strsplit(x, split="[,.]")[[1]][2]})data$Title <- sub(" ", "", data$Title)data$Title[data$Title %in% c("Mme", "Mlle")] <- "Mlle"data$Title[data$Title %in% c("Capt", "Don", "Major", "Sir")] <- "Sir"data$Title[data$Title %in% c("Dona", "Lady", "the Countess", "Jonkheer")] <- "Lady"data$Title <- factor(data$Title)
抽取完乘客的Title後,統計出不同Title的乘客的倖存與遇難人數,畫圖:
ggplot(data = data[1:nrow(train),], mapping = aes(x = Title, y = ..count.., fill=Survived)) + geom_bar(stat = "count", position="stack") + xlab("Title") + ylab("Count") + ggtitle("How Title impact survivor") + scale_fill_discrete(name="Survived", breaks=c(0, 1), labels=c("Perish", "Survived")) + geom_text(stat = "count", aes(label = ..count..), position=position_stack(vjust = 0.5)) + theme(plot.title = element_text(hjust = 0.5), legend.position="bottom")
從上圖可看出,Title為Mr的乘客倖存比例非常小,而Title為Mrs和Miss的乘客倖存比例非常大。這裡使用WOE和IV來定量計算Title這一變數對於最終的預測是否有用。從計算結果可見,IV為1.520702,且」Highly Predictive」。因此,可暫將Title作為預測模型中的一個特徵變數。
WOETable(X=data$Title[1:nrow(train)], Y=data$Survived[1:nrow(train)])
結果:
CAT GOODS BADS TOTAL PCT_G PCT_B WOE IV1 Col 1 1 2 0.002873563 0.001808318 0.46315552 4.933741e-042 Dr 3 4 7 0.008620690 0.007233273 0.17547345 2.434548e-043 Lady 2 1 3 0.005747126 0.001808318 1.15630270 4.554455e-034 Master 23 17 40 0.066091954 0.030741410 0.76543639 2.705859e-025 Miss 127 55 182 0.364942529 0.099457505 1.30000942 3.451330e-016 Mlle 3 3 3 0.008620690 0.005424955 0.46315552 1.480122e-037 Mr 81 436 517 0.232758621 0.788426763 -1.22003757 6.779360e-018 Mrs 99 26 125 0.284482759 0.047016275 1.80017883 4.274821e-019 Ms 1 1 1 0.002873563 0.001808318 0.46315552 4.933741e-0410 Rev 6 6 6 0.017241379 0.010849910 0.46315552 2.960244e-0311 Sir 2 3 5 0.005747126 0.005424955 0.05769041 1.858622e-05
IV(X=data$Title[1:nrow(train)], Y=data$Survived[1:nrow(train)])
結果:
[1] 1.487853attr(,"howgood")[1] "Highly Predictive"
3.3.3女性倖存率遠高於男性
對於Sex變數,由Titanic號沉沒的背景可知,逃生時遵循「婦女與小孩先走」的規則,由此猜想,Sex變數應該對預測乘客倖存有幫助。
如下數據驗證了這一猜想,大部分女性(233/(233+81)=74.20%)得以倖存,而男性中只有很小部分(109/(109+468)=22.85%)倖存。
data$Sex<- as.factor(data$Sex)ggplot(data= data[1:nrow(train),], mapping = aes(x = Sex, y = ..count.., fill=Survived)) +geom_bar(stat = "count", position="dodge") + xlab("Sex") + ylab("Count") + ggtitle("How Sex impact survivo") + geom_text(stat = "count", aes(label= ..count..), position=position_dodge(width_=1), , vjust=-0.5) + theme(plot.title = element_text(hjust = 0.5),legend.position="bottom")
通過計算WOE和IV可知,Sex的IV為1.34且」Highly Predictive」,可暫將Sex作為特徵變數。
WOETable(X=data$Sex[1:nrow(train)], Y=data$Survived[1:nrow(train)])
結果:
CAT GOODS BADS TOTAL PCT_G PCT_B WOE IV1 female 233 81 314 0.6812865 0.147541 1.5298770 0.81656512 male 109 468 577 0.3187135 0.852459 -0.9838327 0.5251163
IV(X=data$Sex[1:nrow(train)], Y=data$Survived[1:nrow(train)])
結果:
1] 1.341681attr(,"howgood")[1] "Highly Predictive"
3.3.4未成年人倖存率高於成年人
結合背景,按照「婦女與小孩先走」的規則,未成年人應該有更大可能倖存。如下圖所示,Age < 18的乘客中,倖存人數確實高於遇難人數。同時青壯年乘客中,遇難人數遠高於倖存人數。
ggplot(data = data[(!is.na(data$Age)) & row(data[, "Age"]) <= 891, ], aes(x = Age, color=Survived)) + geom_line(aes(label=..count..), stat = "bin", binwidth_=5) + labs(title = "How Age impact survivor", x = "Age", y = "Count", fill = "Survived")
Warning: Ignoring unknown aesthetics: label
3.3.5配偶及兄弟姐妹數適中的乘客更易倖存
對於SibSp變數,分別統計出倖存與遇難人數。
ggplot(data = data[1:nrow(train),], mapping = aes(x = SibSp, y = ..count.., fill=Survived)) + geom_bar(stat = "count", position="dodge") + labs(title = "How SibSp impact survivor", x = "Sibsp", y = "Count", fill = "Survived") + geom_text(stat = "count", aes(label = ..count..), position=position_dodge(width_=1), , vjust=-0.5) + theme(plot.title = element_text(hjust = 0.5), legend.position="bottom")
從上圖可見,SibSp為0的乘客,倖存率低於1/3;SibSp為1或2的乘客,倖存率高於50%;SibSp大於等於3的乘客,倖存率非常低。可通過計算WOE與IV定量計算SibSp對預測的貢獻。IV為0.1448994,且」Highly Predictive」。
WOETable(X=as.factor(data$SibSp[1:nrow(train)]), Y=data$Survived[1:nrow(train)])
運行結果:
CAT GOODS BADS TOTAL PCT_G PCT_B WOE IV1 0 210 398 608 0.593220339 0.724954463 -0.2005429 0.0264183492 1 112 97 209 0.316384181 0.176684882 0.5825894 0.0813873343 2 13 15 28 0.036723164 0.027322404 0.2957007 0.0027798114 3 4 12 16 0.011299435 0.021857923 -0.6598108 0.0069666045 4 3 15 18 0.008474576 0.027322404 -1.1706364 0.0220639536 5 5 5 5 0.014124294 0.009107468 0.4388015 0.0022013917 8 7 7 7 0.019774011 0.012750455 0.4388015 0.003081947
IV(X=as.factor(data$SibSp[1:nrow(train)]),Y=data$Survived[1:nrow(train)])
結果:
[1] 0.1448994attr(,"howgood")[1] "Highly Predictive"
3.3.6父母與子女數為1到3的乘客更可能倖存
對於Parch變數,分別統計出倖存與遇難人數。
ggplot(data = data[1:nrow(train),], mapping = aes(x = Parch, y = ..count.., fill=Survived)) + geom_bar(stat = "count", position="dodge") + labs(title = "How Parch impact survivor", x = "Parch", y = "Count", fill = "Survived") + geom_text(stat = "count", aes(label = ..count..), position=position_dodge(width_=1), , vjust=-0.5) + theme(plot.title = element_text(hjust = 0.5), legend.position="bottom")ggplot(data = data[1:nrow(train),], mapping = aes(x = Parch, y = ..count.., fill=Survived)) + geom_bar(stat = "count", position="dodge") + labs(title = "How Parch impact survivor", x = "Parch", y = "Count", fill = "Survived") + geom_text(stat = "count", aes(label = ..count..), position=position_dodge(width_=1), , vjust=-0.5) + theme(plot.title = element_text(hjust = 0.5), legend.position="bottom")
從上圖可見,Parch為0的乘客,倖存率低於1/3;Parch為1到3的乘客,倖存率高於50%;Parch大於等於4的乘客,倖存率非常低。可通過計算WOE與IV定量計算Parch對預測的貢獻。IV為0.1166611,且」Highly Predictive」。
WOETable(X=as.factor(data$Parch[1:nrow(train)]), Y=data$Survived[1:nrow(train)])
結果:
CAT GOODS BADS TOTAL PCT_G PCT_B WOE IV1 0 233 445 678 0.671469741 0.810564663 -0.1882622 0.0261863122 1 65 53 118 0.187319885 0.096539162 0.6628690 0.0601757283 2 40 40 80 0.115273775 0.072859745 0.4587737 0.0194584404 3 3 2 5 0.008645533 0.003642987 0.8642388 0.0043233945 4 4 4 4 0.011527378 0.007285974 0.4587737 0.0019458446 5 1 4 5 0.002881844 0.007285974 -0.9275207 0.0040849227 6 1 1 1 0.002881844 0.001821494 0.4587737 0.000486461
IV(X=as.factor(data$Parch[1:nrow(train)]),Y=data$Survived[1:nrow(train)])
結果:
[1]0.1166611attr(,"howgood")[1]"Highly Predictive"
3.3.7FamilySize為2到4的乘客倖存可能性較高
SibSp與Parch都說明,當乘客無親人時,倖存率較低,乘客有少數親人時,倖存率高於50%,而當親人數過高時,倖存率反而降低。在這裡,可以考慮將SibSp與Parch相加,生成新的變數,FamilySize。
data$FamilySize <- data$SibSp + data$Parch + 1ggplot(data = data[1:nrow(train),], mapping = aes(x = FamilySize, y = ..count.., fill=Survived)) + geom_bar(stat = "count", position="dodge") + xlab("FamilySize") + ylab("Count") + ggtitle("How FamilySize impact survivor") + geom_text(stat = "count", aes(label = ..count..), position=position_dodge(width_=1), , vjust=-0.5) + theme(plot.title = element_text(hjust = 0.5), legend.position="bottom")
計算FamilySize的WOE和IV可知,IV為0.3497672,且「Highly Predictive」。由SibSp與Parch派生出來的新變數FamilySize的IV高於SibSp與Parch的IV,因此,可將這個派生變數FamilySize作為特徵變數。
WOETable(X=as.factor(data$FamilySize[1:nrow(train)]), Y=data$Survived[1:nrow(train)])
結果:
CAT GOODS BADS TOTAL PCT_G PCT_B WOE IV1 1 163 374 537 0.459154930 0.68123862 -0.3945249 0.08761755392 2 89 72 161 0.250704225 0.13114754 0.6479509 0.07746686163 3 59 43 102 0.166197183 0.07832423 0.7523180 0.06610840574 4 21 8 29 0.059154930 0.01457195 1.4010615 0.06246349985 5 3 12 15 0.008450704 0.02185792 -0.9503137 0.01274106436 6 3 19 22 0.008450704 0.03460838 -1.4098460 0.03687829407 7 4 8 12 0.011267606 0.01457195 -0.2571665 0.00084976658 8 6 6 6 0.016901408 0.01092896 0.4359807 0.00260387129 11 7 7 7 0.019718310 0.01275046 0.4359807 0.0030378497
IV(X=as.factor(data$FamilySize[1:nrow(train)]), Y=data$Survived[1:nrow(train)])
結果:
[1] 0.3497672attr(,"howgood")[1] "Highly Predictive"
3.3.8共票號乘客倖存率高
對於Ticket變數,重複度非常低,無法直接利用。先統計出每張票對應的乘客數。
ticket.count <- aggregate(data$Ticket, by =list(data$Ticket), function(x) sum(!is.na(x)))
這裡有個猜想,票號相同的乘客,是一家人,很可能同時倖存或者同時遇難。現將所有乘客按照Ticket分為兩組,一組是使用單獨票號,另一組是與他人共享票號,並統計出各組的倖存與遇難人數。
data$TicketCount <-apply(data, 1, function(x) ticket.count[which(ticket.count[, 1] == x["Ticket"]), 2])data$TicketCount <-factor(sapply(data$TicketCount, function(x) ifelse(x > 1, "Share", "Unique")))ggplot(data = data[1:nrow(train),], mapping =aes(x = TicketCount, y = ..count.., fill=Survived)) + geom_bar(stat = "count", position="dodge") + xlab("TicketCount") + ylab("Count") + ggtitle("How TicketCount impact survivor") + geom_text(stat = "count",aes(label = ..count..), position=position_dodge(width_=1), , vjust=-0.5) + theme(plot.title = element_text(hjust = 0.5), legend.position="bottom")
由上圖可見,未與他人同票號的乘客,只有130/(130+351)=27%倖存,而與他人同票號的乘客有212/(212+198)=51.7%倖存。計算TicketCount的WOE與IV如下。其IV為0.2751882,且」Highly Predictive」
WOETable(X=data$TicketCount[1:nrow(train)], Y=data$Survived[1:nrow(train)])
結果:
CAT GOODS BADS TOTAL PCT_G PCT_B WOE IV1 Share 212 198 410 0.619883 0.3606557 0.5416069 0.14039932 Unique 130 351 481 0.380117 0.6393443 -0.5199641 0.1347889
IV(X=data$TicketCount[1:nrow(train)], Y=data$Survived[1:nrow(train)])
結果:
[1] 0.2751882attr(,"howgood")[1] "Highly Predictive
3.3.9支出船票費越高倖存率越高
對於Fare變數,由下圖可知,Fare越大,倖存率越高。
ggplot(data = data[(!is.na(data$Fare)) & row(data[, "Fare"]) <= 891, ], aes(x = Fare, color=Survived)) + geom_line(aes(label=..count..), stat = "bin", binwidth_=10) + labs(title = "How Fare impact survivor", x = "Fare", y = "Count", fill = "Survived")
3.3.10不同倉位的乘客倖存率不同
對於Cabin變數,其值以字母開始,後面伴以數字。這裡有一個猜想,字母代表某個區域,數據代表該區域的序號。類似於火車票即有車箱號又有座位號。因此,這裡可嘗試將Cabin的首字母提取出來,並分別統計出不同首字母倉位對應的乘客的倖存率。
ggplot(data[1:nrow(train), ], mapping = aes(x = as.factor(sapply(data$Cabin[1:nrow(train)], function(x) str_sub(x, start = 1, end = 1))), y = ..count.., fill = Survived)) + geom_bar(stat = "count", position="dodge") + xlab("Cabin") + ylab("Count") + ggtitle("How Cabin impact survivor") + geom_text(stat = "count", aes(label = ..count..), position=position_dodge(width_=1), , vjust=-0.5) + theme(plot.title = element_text(hjust = 0.5), legend.position="bottom")
由上圖可見,倉位號首字母為B,C,D,E,F的乘客倖存率均高於50%,而其它倉位的乘客倖存率均遠低於50%。倉位變數的WOE及IV計算如下。由此可見,Cabin的IV為0.1866526,且「Highly Predictive」
data$Cabin <- sapply(data$Cabin, function(x) str_sub(x, start = 1, end = 1))WOETable(X=as.factor(data$Cabin[1:nrow(train)]), Y=data$Survived[1:nrow(train)])
結果為:
CAT GOODS BADS TOTAL PCT_G PCT_B WOE IV1 A 7 8 15 0.05109489 0.11764706 -0.8340046 0.0555048152 B 35 12 47 0.25547445 0.17647059 0.3699682 0.0292289173 C 35 24 59 0.25547445 0.35294118 -0.3231790 0.0314991974 D 25 8 33 0.18248175 0.11764706 0.4389611 0.0284599065 E 24 8 32 0.17518248 0.11764706 0.3981391 0.0229071006 F 8 5 13 0.05839416 0.07352941 -0.2304696 0.0034882157 G 2 2 4 0.01459854 0.02941176 -0.7004732 0.0103762678 T 1 1 1 0.00729927 0.01470588 -0.7004732 0.005188134
IV(X=as.factor(data$Cabin[1:nrow(train)]), Y=data$Survived[1:nrow(train)])
結果:
[1] 0.1866526attr(,"howgood")[1] "Highly Predictive"
3.3.11Embarked為S的乘客倖存率較低
Embarked變數代表登船碼頭,現通過統計不同碼頭登船的乘客倖存率來判斷Embarked是否可用於預測乘客倖存情況。
ggplot(data[1:nrow(train), ], mapping = aes(x = Embarked, y = ..count.., fill = Survived)) + geom_bar(stat = "count", position="dodge") + xlab("Embarked") + ylab("Count") + ggtitle("How Embarked impact survivor") + geom_text(stat = "count", aes(label = ..count..), position=position_dodge(width_=1), , vjust=-0.5) + theme(plot.title = element_text(hjust = 0.5), legend.position="bottom")
從上圖可見,Embarked為S的乘客倖存率僅為217/(217+427)=33.7%,而Embarked為C或為NA的乘客倖存率均高於50%。初步判斷Embarked可用於預測乘客是否倖存。Embarked的WOE和IV計算如下:
WOETable(X=as.factor(data$Embarked[1:nrow(train)]), Y=data$Survived[1:nrow(train)])
結果:
CAT GOODS BADS TOTAL PCT_G PCT_B WOE IV1 C 93 75 168 0.27352941 0.1366120 0.6942642 9.505684e-022 Q 30 47 77 0.08823529 0.0856102 0.0302026 7.928467e-053 S 217 427 644 0.63823529 0.7777778 -0.1977338 2.759227e-02
IV(X=as.factor(data$Embarked[1:nrow(train)]), Y=data$Survived[1:nrow(train)])
結果:
[1] 0.1227284attr(,"howgood")[1] "Highly Predictive"
從上述計算結果可見,IV為0.1227284,且「Highly Predictive」。
3.4填補缺失值
3.4.1列出所有缺失數據
attach(data) missing <- list(Pclass=nrow(data[is.na(Pclass), ])) missing$Name <- nrow(data[is.na(Name), ]) missing$Sex <- nrow(data[is.na(Sex), ]) missing$Age <- nrow(data[is.na(Age), ]) missing$SibSp <- nrow(data[is.na(SibSp), ]) missing$Parch <- nrow(data[is.na(Parch), ]) missing$Ticket <- nrow(data[is.na(Ticket), ]) missing$Fare <- nrow(data[is.na(Fare), ]) missing$Cabin <- nrow(data[is.na(Cabin), ]) missing$Embarked <- nrow(data[is.na(Embarked), ]) for (name in names(missing)) { if (missing[[name]][1] > 0) { print(paste("", name, " miss ", missing[[name]][1], " values", sep = "")) } }detach(data)
結果:
[1] "Age miss 263 values"[1] "Fare miss 1 values"[1] "Cabin miss 1014 values"[1] "Embarked miss 2 values"
3.4.2預測乘客年齡
缺失年齡信息的乘客數為263,缺失量比較大,不適合使用中位數或者平均值填補。一般通過使用其它變數預測或者直接將缺失值設置為默認值的方法填補,這裡通過其它變數來預測缺失的年齡信息。
age.model <- rpart(Age ~ Pclass + Sex + SibSp + Parch + Fare + Embarked + Title + FamilySize, data=data[!is.na(data$Age), ], method="anova")data$Age[is.na(data$Age)] <- predict(age.model, data[is.na(data$Age), ])
3.4.3中位數填補缺失的Embarked值
從如下數據可見,缺失Embarked信息的乘客的Pclass均為1,且Fare均為80。
data[is.na(data$Embarked),c("PassengerId", "Pclass", "Fare", "Embarked")]
結果:
# A tibble: 2 x 4 PassengerId Pclass Fare Embarked <int> <int> <dbl> <chr>1 62 1 80 <NA>2 830 1 80 <NA
由下圖所見,Embarked為C且Pclass為1的乘客的Fare中位數為80。
ggplot(data[!is.na(data$Embarked),], aes(x=Embarked, y=Fare, fill=factor(Pclass))) + geom_boxplot() + geom_hline(aes(yintercept=80), color="red", linetype="dashed", lwd=2) + scale_y_continuous(labels=dollar_format()) + theme_few()
因此可以將缺失的Embarked值設置為』C』。
data$Embarked[is.na(data$Embarked)]<- "C"data$Embarked<- as.factor(data$Embarked)
3.4.4中位數填補一個缺失的Fare值
由於缺失Fare值的記錄非常少,一般可直接使用平均值或者中位數填補該缺失值。這裡使用乘客的Fare中位數填補缺失值。
data$Fare[is.na(data$Fare)] <- median(data$Fare, na.rm=TRUE)
3.4.5將缺失的Cabin設置為默認值
缺失Cabin信息的記錄數較多,不適合使用中位數或者平均值填補,一般通過使用其它變數預測或者直接將缺失值設置為默認值的方法填補。由於Cabin信息不太容易從其它變數預測,並且在上一節中,將NA單獨對待時,其IV已經比較高。因此這裡直接將缺失的Cabin設置為一個默認值。
data$Cabin<- as.factor(sapply(data$Cabin, function(x)ifelse(is.na(x), "X", str_sub(x, start = 1, end = 1))))
3.5訓練模型
set.seed(415)model <-cforest(Survived ~ Pclass + Title + Sex + Age + SibSp + Parch + FamilySize +TicketCount + Fare + Cabin + Embarked, data = data[train.row, ],controls=cforest_unbiased(ntree=2000, mtry=3))
有一個小問題:為什麼是415呢?
3.6交叉驗證
一般情況下,應該將訓練數據分為兩部分,一部分用於訓練,另一部分用於驗證。或者使用k-fold交叉驗證。本文將所有訓練數據都用於訓練,然後隨機選取30%數據集用於驗證。
cv.summarize <- function(data.true, data.predict) { print(paste("Recall:", Recall(data.true, data.predict))) print(paste("Precision:", Precision(data.true, data.predict))) print(paste("Accuracy:", Accuracy(data.predict, data.true))) print(paste("AUC:", AUC(data.predict, data.true)))}set.seed(415)cv.test.sample <- sample(1:nrow(train), as.integer(0.3 * nrow(train)), replace = TRUE)cv.test <- data[cv.test.sample,]cv.prediction <- predict(model, cv.test, OOB=TRUE, type = "response")cv.summarize(cv.test$Survived, cv.prediction)
結果:
[1] "Recall: 0.947976878612717"[1] "Precision: 0.841025641025641"[1] "Accuracy: 0.850187265917603"[1] "AUC: 0.809094822285082"
3.7預測
predict.result <- predict(model, data[(1+nrow(train)):(nrow(data)), ], OOB=TRUE, type = "response")output <- data.frame(PassengerId = test$PassengerId, Survived = predict.result)write.csv(output, file = "cit1.csv", row.names = FALSE)
該模型預測結果在Kaggle的得分為0.80383,排第992名,前992/6292=15.8%。
3.8調優
3.8.1去掉關聯特徵
由於FamilySize結合了SibSp與Parch的信息,因此可以嘗試將SibSp與Parch從特徵變數中移除。
set.seed(415)model <- cforest(Survived ~ Pclass + Title + Sex + Age + FamilySize + TicketCount + Fare + Cabin + Embarked, data = data[train.row, ], controls=cforest_unbiased(ntree=2000, mtry=3))predict.result <- predict(model, data[test.row, ], OOB=TRUE, type = "response")submit <- data.frame(PassengerId = test$PassengerId, Survived = predict.result)write.csv(submit, file = "cit2.csv", row.names = FALSE)
該模型預測結果在Kaggle的得分仍為0.80383。
3.8.2去掉IV較低的Cabin
由於Cabin的IV值相對較低,因此可以考慮將其從模型中移除。
set.seed(415)model <- cforest(Survived ~ Pclass + Title + Sex + Age +FamilySize + TicketCount + Fare + Embarked, data = data[train.row, ],controls=cforest_unbiased(ntree=2000, mtry=3))predict.result <- predict(model, data[test.row, ], OOB=TRUE,type = "response")submit <- data.frame(PassengerId = test$PassengerId, Survived= predict.result)write.csv(submit, file = "cit3.csv", row.names =FALSE)
該模型預測結果在Kaggle的得分仍為0.80383。
3.8.3增加派生特徵
對於Name變數,上文從中派生出了Title變數。由於以下原因,可推測乘客的姓氏可能具有一定的預測作用
- 部分西方國家中人名的重複度較高,而姓氏重複度較低,姓氏具有一定辨識度
- 部分國家的姓氏具有一定的身份識別作用
- 姓氏相同的乘客,可能是一家人(這一點也基於西方國家姓氏重複度較低這一特點),而一家人同時倖存或遇難的可能性較高
考慮到只出現一次的姓氏不可能同時出現在訓練集和測試集中,不具辨識度和預測作用,因此將只出現一次的姓氏均命名為』Small』。
data$Surname <- sapply(data$Name, FUN=function(x) {strsplit(x, split="[,.]")[[1]][1]})data$FamilyID <- paste(as.character(data$FamilySize), data$Surname, sep="")data$FamilyID[data$FamilySize <= 2] <- "Small"# Delete erroneous family IDsfamIDs <- data.frame(table(data$FamilyID))famIDs <- famIDs[famIDs$Freq <= 2,]data$FamilyID[data$FamilyID %in% famIDs$Var1] <- "Small"# Convert to a factordata$FamilyID <- factor(data$FamilyID)
set.seed(415)model <- cforest(as.factor(Survived) ~ Pclass + Sex + Age + Fare + Embarked + Title + FamilySize + FamilyID + TicketCount, data = data[train.row, ], controls=cforest_unbiased(ntree=2000, mtry=3))predict.result <- predict(model, data[test.row, ], OOB=TRUE, type = "response")submit <- data.frame(PassengerId = test$PassengerId, Survived = predict.result)write.csv(submit, file = "cit4.csv", row.names = FALSE)
該模型預測結果在Kaggle的得分為0.82775,排第135名,前135/8260=1.63%
3.8.4其它
經試驗,將缺失的Embarked補充為出現最多的S而非C,成績有所提升。但該方法理論依據不強,並且該成績只是Public排行榜成績,並非最終成績,並不能說明該方法一定優於其它方法。因此本文並不推薦該方法,只是作為一種可能的思路,供大家參考學習。
data$Embarked[c(62,830)] = "S"data$Embarked <- factor(data$Embarked)
該模型預測結果在Kaggle的得分依然為0.82775,排第135名,前135/8260=1.63%
4. 總結
本文詳述了如何通過數據預覽,探索式數據分析,缺失數據填補,刪除關聯特徵以及派生新特徵等方法,在Kaggle的Titanic倖存預測這一分類問題競賽中獲得前2%排名的具體方法。
推薦閱讀:
※《利用數據改進醫療質量指南》
※知乎探索(二)——封禁用戶是誰?
※打造數據科學作品集:用數據講故事
※最實用的帕累托分析模板
TAG:数据分析 |