數據運營實戰(三):用數據說話,從埋點開始
埋點是App數據運營中很重要的一個環節。之前我們討論過用戶分群的方式、漏斗轉化的改進,但所有App數據的來源是數據採集,很多時候就是App的埋點。
數據只有採集了才能做分析,分析了才能實現價值。
圖1. 數據運營微笑模型
上圖是數據運營解決問題的思路,但相對的,數據運營分析的需求,也驅動著數據埋點的優化。
有時候,我們可能會遇到這樣的尷尬:
數到用時方恨少!
木有結論腫么破!
其實,數據埋點比我們想像得有更多挖掘的空間,有針對性的有條理的埋點能夠幫助我們理清用戶行為軌跡、抓住用戶特徵、解析關鍵路徑。
但過多的埋點,可能會給App帶來負擔,也可能對App用戶的流量、網速體驗有影響,這都是我們需要考慮的因素。全埋點、多採集,並不是數據分析體系構建的辦法,反而是把分析挖掘的工作量後移,給數據分析帶來很多負擔。
較好的做法是:帶著我們的分析目標與數據解讀思路去埋點。騰訊移動分析MTA在數據埋點上做過多次優化,能確保多次採集一次上傳的數據傳輸過程,減少對用戶流量的影響,優化用戶體驗。
下面我們分幾個層次來討論埋點問題:
1、用戶行為分析
通過埋點可以追蹤用戶的行為,即對App內的關鍵路徑進行監測,這無疑是最常見也是最重要的應用場景。
不同的App可能關注的埋點事件有很大不同。
例如,電商類App多關注的是訂單成交;社區類App可能關注UGC內容的產生;閱讀類App則需要關注內容的閱讀。
用戶埋點的場景很靈活,埋點可以統計的事件數據能和業務數據進行打通。
比如在新聞閱讀的App中,將閱讀新聞作為自定義事件,每一篇報道都帶有不同的參數,可以得到閱讀的大盤整合數據,也可以分析每篇報道的價值,甚至可以方便的實現閱讀量排行榜等功能。
埋點是因業務場景需要而定的。
比如第二篇時講到的漏斗細分中,有一個金融用戶案例。在綁卡流程轉化流失率過高的時候,需要定位每一個輸入框的填寫方式是否存在問題,這時埋點的密度會比一般情況要高很多。
圖2. 定位問題時的埋點示意
上述埋點是基於我們想要定位「為什麼綁卡頁面轉化率低」的需求。埋點之後,在綁卡流程漏斗中,MTA會生成一個詳細填寫頁面的漏斗,從中我們或許能知道用戶是在哪一步停止操作的,是否有改進的空間。
圖3.漏斗拆解(由於業務數據敏感性,以上數據已做模糊處理)
但如果之後我們修復了問題,我們可能就不需要這麼細緻的埋點了,或者我們只需要對可能出問題的地方進行埋點監控。
圖4.穩定後的埋點示意圖
因此,業界所說的全埋點是一種未充分理解自身業務時採用的策略,很多時候也無法滿足詳細漏斗的追溯要求。而不必要的埋點帶來了過量的數據上報,一方面加重了用戶的流量負擔,另一方面也不利於後期的復盤分析。
當然如果真的是業務上線了,點還沒埋上,騰訊移動分析MTA新近推出了可視化埋點功能,可以由產品、運營同學通過web端配置埋點,雲端下發至App中,隨時調整App內的埋點策略,也是機智而有效的救急措施。
開發GG再也不用擔心我漏埋點啦~~
2、用戶人群分析
根據用戶事件、來源渠道、同期群,甚至年齡、性別、地域等,我們可以把自己的App用戶切割為很多小群體。
比如在訂單購買的業務中,將訂單金額作為參數上報,能夠更好的分析用戶的價值。下圖是一種消費用戶分群的方式,以消費金額Monetary、消費頻率Frequency和最近一次消費時間Recency,得到8個象限的用戶,可以對不同的用戶進行不同的運營推廣策略。
圖5. 消費用戶分群模型
還是看這個電商App,當用於活動運營分析的時候,可能數據分析的視角和方式就不太一樣了。
舉個例子:618活動時間新註冊(同期群)且完成過一次訂單的這群用戶,他們在活動期結束之後,會有哪些表現?
- 購買VIP會員的轉化率高於平均活動水平→某個新的廣告渠道帶來了優質的新客戶,該渠道可以繼續投入,持續關注效果;
- 繼續參與七夕節的活動→人群可能對活動信息比較敏感,適合推薦促銷信息;
- 流失曲線&再次開啟時間的關係是:2周內不再開啟App的客戶,87%都流失了→我們如果在新用戶註冊後1周左右的時間通過Push、簡訊、郵箱等手段喚醒用戶,能夠大幅提高留存。
通過把人群切分,去分析業務特性,能夠加深對用戶的理解,結合你的App觸達手段,能夠讓你更好的與用戶交流互動,實現業務運營的目標。
而這裡的人群切分方式,就需要通過埋點定義出自定義事件,通過事件與其他條件的疊加、篩選,與不同事件、報表做交叉分析,就能夠凸顯核心用戶群體的價值,精細化運營不同用戶群體。
點擊不同按鈕、關注不同板塊、甚至不同註冊時間的人群都有不同的特性。
精細化的分析運營需要對業務的深入理解,需要學會切入分析的角度,解析你的用戶的特徵,了解你的用戶,再由數據的需求去驅動埋點的配置。
3、解析核心路徑
第三點是基於第二點的應用。通過切割用戶人群,再回到業務關鍵路徑上,去發現吸引用戶、留住用戶的奧秘。
舉一個比較知名的例子。
在某知名社交App的數據分析運營分享中,通過不同的事件對比,可以發現10天內添加7個好友的留存率大大提高。
我們回溯一下,如果我們想要分析什麼才是這個App留存率的關鍵,我們需要羅列很多的可能性,比如在平台上瀏覽100條新聞、引薦3名新用戶加入、產生UGC內容或者是上傳3張照片、玩過平台遊戲。那麼,我們需要對比這些人群,尋找在這些事件中哪些才是與留存率強相關的?
如果是添加好友的這件事,那麼這個時間限是,註冊時關注3人,還是一周內關注5人?
或者如果我們發現,引薦5名新用戶,留存率非常高,但實際上,真的能引薦5名新用戶的人群少之又少,那麼這件事也不適宜我們去重點關注,因為給我們帶來的成本太高了。
圖6.自定義事件與留存相關度的分析示例
從這些關鍵事件中,我們要通過數據分析找到其中的核心路徑,然後傾斜我們的資源去支持它。
好啦,今天的分享就到這裡了。總的來說,埋點與數據統計,都是為業務服務的。關注哪些事件、為他們埋點是由於App自身的業務特性所決定。
埋點需要有的放矢,分析才能得到結論,迭代增長也將有跡可循。
往期文章閱讀:
數據運營實戰(一):細分目標人群,結合用戶畫像的實踐
數據運營實戰(二):細分漏斗畫像,改善關鍵節點
【乾貨】留存率才是檢驗產品的第一標準
推薦閱讀:
※先給自己定個小目標———數據分析學習入門
※4 種最搶手的數據分析職業,你會選擇?
※如何快速了解一個行業(長文預警~)
※用python做數據分析-我的數據分析學習計劃
※如何入門精益數據分析