數據如何驅動運營?


數據驅動運營,可以認為是運用數據來幫助運營、優化運營。具體的應用有很多:包括確定目標客戶群體、內容的優化、流程的優化等,這裡舉兩個工作中實際做過的案例:

1、EDM目標客戶選擇

產品推廣或者促銷活動可能會用到電子郵件營銷,但是運營怎麼知道哪些用戶會對本次的推廣活動感興趣?這個時候數據就可以幫上忙了,通過制定客戶的篩選規則或者建立數據模型,根據用戶之前的行為獲取那些可能感興趣的目標用戶,比如包括曾經瀏覽過相關內容的用戶、最近剛剛新註冊的用戶,過濾購買過的或者正在使用產品的用戶……基於這些規則篩選得到的客戶群體比運營隨機抽取的客戶群體進行EDM效果會有明顯的提升,結合郵件打開率、點擊率、轉化率進行後續的效果跟蹤。

2、內容榜單推薦

這裡的榜單推薦不是指數據挖掘的關聯推薦或者協同過濾,即使是最簡單的「最新內容」和「最熱內容」的推薦也可以在運營上進行很多優化操作。榜單內容一方面需要把最熱門用戶最希望看到的內容放進去,另一方面最要規避馬太效應,增加新的內容和高質量內容的展現,以促進網站內容的新陳代謝。要運營人為去權衡應該放哪些熱門、高質量或者新的內容有時會沒有說服力,或者很難找到最佳的內容組合。所以在結合內容的瀏覽量、購買量、轉化率、上線時長這些指標綜合考慮後,推送的內容榜單可以靠定量的方式完成對榜單選擇和排序的優化,繼而用榜單內容的點擊率和轉化率來監控效果。

關於這個應用案例可以參考我的博客中的兩篇文章:

一個有效的內容推薦方法:http://webdataanalysis.net/personal-view/useful-recommendation/

排行榜與隨機數:http://webdataanalysis.net/personal-view/ranking-and-random/

這兩個案例的數據都是在數據分析處理之後直接推送給運營的,可以認為是數據驅動運營的非常典型的案例。


我們剛剛做完十二期公開課「用數據分析做運營增長,你需要做好這 4 個方面」,本文會分別從流量運營、用戶運營、產品運營、內容運營四個方面,來給大家講解「數據如何驅動運營」。

公開課的講師為我們的數據分析師範芊芸。

文 / 范芊芸

運營是一門藝術,更是一門技術。

過去,「流量為王」的理念使得運營人員的職責聚焦在拉新上。隨著市場環境的變化,運營的渠道和方式不斷增加,運營有了更加細緻的分類。精細化運營的大背景下,如何用數據分析來解決流量運營、用戶運營、產品運營和內容運營中的增長問題,今天將和大家分享我們在數據運營方面的實戰心得。

| 流量運營:多維度分析,優化渠道

流量運營主要解決的是用戶從哪裡來的問題。過去粗放式的流量運營,僅僅關注 pv、uv 等虛榮指標,在精細化運營的今天是遠遠不夠的。

1. 流量指標體系

我們需要通過多維度指標判斷基本的流量情況,包括量級指標、基本質量指標和來訪用戶類型佔比指標。量級指標涉及不同平台,Web 端主要看訪問量、pv 和 uv,App 主要看啟動次數、DAU 和 NDAU。基本質量指標包括用戶的平均訪問時長、平均一次會話瀏覽頁數(即訪問深度)和跳出率等,通過這些指標可以判斷用戶的活躍度。產品的生命周期模型廣泛應用在互聯網運營中,在不同的產品生命周期中,訪客的類型是有差異的。

一名優秀的運營人員,應該熟悉自己產品的流量概況。通過 GrowingIO的【概覽】頁面,運營人員可以清楚掌握流量指標及其變化趨勢,方便評估過去和預測將來趨勢。

2. 多維度的流量分析

在網站流量分析中,主要從訪問來源、流量入口、廣告等角度切入。

首先,訪問來源包括直接訪問、外鏈、搜索引擎和社交媒體等。在這個分析框架下,需要一層一層拆解,具體到每一個渠道進行流量分析。

以 GrowingIO 的博客為例,這是一個內容運營的子站,上面有很多數據分析和增長黑客的文章。我們通過訪問來源分析發現,相比於渠道一和渠道二,從微博渠道過來的用戶數量和質量都偏低,這提醒我們需要優化內容渠道。

其次是落地頁,落地頁是用戶到達你網站的入口。如果用戶被導入到無效或者不相關的頁面,一般會有較高的跳出率。

最後,廣告投放也是目前流量運營的重要部分。一般涉及到的廣告分析包括廣告來源、廣告內容、廣告形式(點擊、彈窗、效果引導)和銷售分成等,我們需要通過多維度的分析來優化廣告投放。

上面的三個角度主要是在 web 端的分析,對於 App 分析,需要考慮分發渠道和 App 版本等因素。

3. 轉化漏斗分析

在增長模型中,流量進入後,還需要進一步激活和轉化,而激活是需要一定的流程和步驟的。使用 GrowingIO 的【漏斗】功能,可以清晰展示每一步的轉化情況。

以上圖為例,我們分別對轉化的每一步進行分析,發現第一步到第二步的流失率最高,需要針對性優化。對不同渠道進行轉化率分析,發現來至百度品牌專區的(http://bzclk.baidu.com)的轉化率高達 44%,而其他渠道的轉化率不足 3%。

4. 渠道優化配置

在進行一系列的流量分析和轉化分析後,我們可以進行相對應的策略制定,具體方式包括搜索詞、落地頁、廣告投放優化等等。

對於成本低、質量高的渠道需要加大投放,對於成本高、質量高的渠道需要評估成本,對於質量低的渠道也需要做好評估。總體上,根據成本、流量轉化等綜合情況,對渠道配置進行整體管理和調優。

| 用戶運營:精細化運營,提高留存

如果說流量運營解決的是用戶從哪裡來的問題,那麼用戶運營就是建立和維護與用戶的關係。

1. 精細化運營

用戶在產品上的交互行為很多,我們可以通過用戶的行為對用戶進行分類;然後根據不同群體的特徵,進行精細化運營,促進用戶的回訪。

以論壇為例,用戶在論壇上的行為包括:訪問、瀏覽帖子;回復、評論;發帖;轉發,分享等等。我們對用戶的每一類行為建立行為指數,例如根據用戶的轉發、分享等行為建立「傳播行為指數」,通過這些指數給用戶分類。如此一來,論壇上的用戶被分為 4 個維度:A 瀏覽類、B 評論類、C 傳播類和 D 內容生產類。用戶可能只有一個標籤指數,也可能很跨多個指數維度。

用戶運營中,可以根據這些標籤進行分類。比如 UGC 論壇,需要保持 D 類(內容生產類)用戶的活躍度和增長率;同時在論壇推廣傳播中,需要對 C 類(傳播類)用戶進行刺激,擴大內容的傳播力和影響力。

2. 提高用戶的留存

互聯網產品一般都關注用戶的留存,只有用戶留下來了,才能進一步去推動變現和傳播。留存分析一般採用組群分析法,即對擁有相同特徵的人群在一定時間範圍內進行分析。

上圖展示的 GrowingIO 的留存圖,橫向比較展示了每周新增用戶在後續各周的留存率,豎向比較展示了不同周的新用戶在今後一段時間的留存表現。

留存時間及周期,和產品體驗完整周期有關,不同的業務和產品一般有著不同的時間群組劃分方法。比如高品類產品的日留存更好反映用戶與產品的關係,而工具類的周留存就比日留存更加具有業務意義。

通過時間維度的分析發現用戶留存的變化趨勢,通過行為維度的分析發現不同群組用戶的差異,找到產品或運營的增長點:這是用戶運營非常重要的一點。

| 產品運營:用數據來分析和監控功能

產品運營是一個非常大的話題,很多運營和產品都是圍繞產品來做的。

1. 監測異常指標,發現用戶對你產品的「怒點」

產品大的流程中,存在很多小的功能點,用戶的體驗就是建立在這些小的功能點上;就是這些小的功能點的使用情況,成為我們每一步轉化的關鍵。

以註冊流程為例,一般需要手機驗證。發送驗證碼是其中一個關鍵的轉化節點;當用戶點擊重新發送的次數激增時,可能意味著我們的這個功能點存在一定問題。而這就是用戶」怒點「所在,無法及時收到手機驗證碼。通過對關鍵指標的監測,便於我們及時發現問題所在,及時修復。

2. 通過留存曲線檢驗新功能的效果

對於上線一段時間的產品,有時候會添加新功能。上線後,需要評估新功能的效果,是否滿足用戶的核心需求,能否給用戶帶來價值。

通過 GrowingIO 的留存曲線,我們不難發現該新功能第一天使用過的人之後持續使用的比例很低,這說明此功能並沒有很好地解決用戶問題;這提醒我們需要對新上線的功能進行重新思考。

| 內容運營:精準分析每一篇文章的效果

什麼是內容運營?很多人認為,內容運營就是編輯文章、發帖子,其實這是片面的。

在做內容運營之前,需要明白你的內容是作為一個產品(如知乎日報)出來,還是產品的一個輔助功能。只有明白自己的定位,才能清晰目標。為了擴大內容運營的效果,我們需要對用戶的需求進行分析,例如用戶感興趣的內容、內容閱讀和傳播的比例等。

1. 內容的類別

以 GrowingIO 的技術博客為例,該博客屬於 PGC 模式。博客中的內容有不同分類,為了降低用戶獲取信息的成本,我們在博客首頁設計了不同板塊的入口,包括左側分類導航、中部文章推薦和右側熱點推薦。

我們發現用戶主要通過左側的導航欄和中間的推薦閱讀文章,較少點擊右側的熱點推薦。所以,在移動端的始終,我們取消了右側的熱點推薦,僅保留了分類導航和中間的推薦。既節省了空間,又最大化滿足了用戶的內容需求。

同時,我們也對分類導航欄的內容進行了分析,發現用戶對【案例分析】的內容最感興趣,這對我們今後的內容選擇是一個非常好的啟發。

2. 基於用戶的推薦

內容運營中的推薦,有時候和用戶的精細化運營息息相關。每一個用戶,都有自己喜歡的內容和類別,當我們根據用戶的興趣傾向進行推送的時候,效率肯定會更高。

同樣以 GrowingIO 的博客為例,我們通過對訪問用戶的文章點擊情況進行統計,得到了上述表格的結果。顯然,用戶 8 對」增長秘籍「有著自己的偏好,用戶 6、7、9 對「案例分享」文章更青睞。那麼在實際的內容推送中,我們可以對用戶 8 推送增長秘籍類文章,向用戶 6、7、9 推送案例分析的文章,其他用戶無差別推送。

| 數據驅動的精細化運營

近年來流行的「Growth Hacker」的核心,其本質就是通過技術創新和數據分析,實現精細化運營,達到增長的目的。一個優秀的數據運營人員,應該具備數據驅動的思維,掌握一定的數據分析工具。在實際業務工作中,不斷從數據中提出問題,不斷嘗試,用數據來優化運營策略,進而實現客戶和業務的增長。

註:本文中「漏斗」等數據產品截圖,來自 GrowingIO 官網 矽谷新一代數據分析產品


題主問,數據如何驅動運營工作,其實也就是在問,數據在運營工作中的運用,或者說,如何用數據來指導你的運營工作

1.

數據的背後,其實是邏輯和推理。換句話講,想要讓數據可以更好地為你服務,你需要先有好的邏輯和推理分析能力。假如連這一層都做不到,即便你看了我的回答並拍案叫絕,很可能也是只得其形,未得其神。

而至於如何評估自己的邏輯能力,我可以給一個大體的參照——

邏輯能力較強的人語言表達方面往往是有組織的。說話表達往往有框架有條理,思路清晰。比如,在回答問題時ta會喜歡用「起因-經過-結果」、「案例-問題-分析原因-解決方法」等框架來進行回答。框架不是為了束縛思維,而是用來整理思路。

一般談話話題容易跑題萬里拉不回來的人,以及經常容易表達上前後自相矛盾難以自圓其說的人邏輯可能都是比較差的。

但,邏輯這個事,也不是不可以練習,只是一定需要投入大量時間。

比如,嘗試給自己建立某種思考框架(如我們前面說過的「案例-問題-原因-解決方案」這樣的框架),並嘗試在自己所有可能會經歷的相關場景中都持續強制自己使用相應框架進行思考和表達,這樣持續幾個月後,通常是會有些效果的。

此外,也推薦可以參考一下《思考的技術》、《麥肯錫教我的思考方法》、《創新者的思考》、《學會提問-批判性思維》等書,都是我看過關於邏輯和思考方法方面的一些好書。

另外,很多人尤其是文科生在提及數據時往往會覺得比較怵,但數據其實一點也不可怕,只要思路捋清楚了,你會發現數據其實還挺有趣的。在下面的內容里,我就會試著給你呈現一些有趣的例子。

2.

好了,接下來我們正經聊數據在運營中的作用。

說到數據,阿里的數據系統在整個國內互聯網行業應該是最強大的了,很可能可能沒有之一。

此前有一位從阿里離職的芮曦同學寫過一篇《我在阿里3年的運營經驗都在這裡了》。其中對於數據的價值和運營工作中的具體使用場景,我覺得很多地方講得是比較到位的。

如果我們需要總結一下的話,簡而言之,數據對於運營的價值可能包括了如下幾方面——

a.數據可以客觀反應出一款產品當前的狀態好壞和所處階段。

比如,三節課定位的用戶群主要是互聯網行業的產品經理+產品運營,這群人假如有300萬人,目前我們已經有了10W用戶,且依靠口碑形成的自增長還比較迅速,那麼我們是不是應該去加大一些推廣和營銷的力度,把推廣做得更好一些了?

又或者,假如我們現在才只有1W用戶,且課程等產品體驗還比較一般,那其實我們當前的主要核心任務是不是更應該是先節奏慢點兒,踏實把產品體驗搞好了再說?

b.假如做完了一件事但效果不好,數據可以告訴你,你的問題出在哪裡。

比如,三節課新做了一個圍繞著課程推廣的活動,但結束了之後發現真正願意去參加課程的人不是太多,那你是不是該去看看,到底是引流引得不夠多,還是課程頁面轉化率太低,還是整個報名流程有問題?

c.假如你想要實現某個目標,數據可以幫助你找到達成的最佳路徑。

好比你老闆讓你要把銷售額提升5倍,你是不是得去看看,銷售額的提升到底該從哪裡來更合適?是搞進來更多流量?還是用心把付費轉化率做上去?還是好好提一下客單價?或者老闆要的是用戶量提升50萬,你是不是得去看看,這50萬用戶從哪裡來更靠譜?多少可以來自於用戶口碑和自增長?多少可以來自於網盟?多少可以來自於豆瓣小組新浪微博?

d.極度精細的數據分析可以幫助你通過層層拆分,對於用戶更了解,也對整個站內的生態更有掌控力。

比如,三節課站內這麼多課程,我們是完全可以通過數據得到以下問題的答案的——從課程的層面來看看,到底什麼樣的課程更受大家喜歡?然後,大家聽課的習慣是怎樣的?是喜歡同一堂課認真聽很多遍?還是一堂課只聽了3-5分鐘就走掉了?再然後,一個還沒畢業的大學畢業生和一個已經工作了2-3年的互聯網從業者,雖然同樣都是想要學習,但學習習慣和訴求是不是應該是有所不同的?以及,假如我們想要盡其所能的服務好三節課的全部用戶,我們是不是可以把這些用戶劃分為各種不同的類別,然後分別推送給他們不同的課程和學習內容,引導他們去完成各種不同的用戶行為?

e.數據當中可能隱藏著一些潛在的能讓你把一件事情變得更好的線索和彩蛋,有待於你去發現和挖掘。

好比,在三節課的用戶群中,我們要是通過數據的分析發現了這樣一個結論——在過去1個月內,但凡是跑到三節課來報名上課的用戶,70%都是因為看了我們的某篇文章才跑過來的,這時候你覺得你應該做點啥?

毫無疑問,當然是把這篇文章放到首頁顯眼處,或者放到新用戶註冊或訪問過程中的某個必經節點上,用它去刺激更多的新用戶啊!

上述五點中,關於a的部分,也即如何從宏觀上結合產品形態和產品發展趨勢判斷一款產品所處的階段,並制定相應的運營策略,完全可以拎出來單獨寫一篇長文。

下面,我們來結合更詳細的實例依次聊一下上面提到的bcde四種價值體現。

3.

先說第一種:假如你做完了一件事但效果不好,這時如何通過數據來界定問題到底出在哪裡。

我們來看一個真實的例子:某O2O課程學習平台,註冊用戶5W,模式為用戶通過線上付費報名,線下實地上課,日前上線了一個專題,聚合了6堂課程進行打包推廣,預期每堂課至少報名40人以上,但從結果來看,效果不佳。該專題頁相關數據如下:

現在,我們想要知道這個專題的具體問題到底出在哪裡,請問該怎麼做?注意,這裡我建議你可以自己先花點時間動動腦子思考一下,有了一些自己的判斷和結論後,再繼續往下看我的答案會更好。

這裡要就要提到我們曾經在《想成為年薪30W+的運營,你必須具備這4個「運營思維」》里提到的4個「運營思維」的其中之一了:流程化思維。也即是說,要先梳理清楚流程,再來流程來反推問題的所在。

比如說,圍繞著一個課程專題的運營,其觸達到用戶的整個流程大體應該是如下這樣的:

於是,我們可以依據這個流程回過去看,到底整個專題的問題出在哪裡?比如說,是推廣本身不給力?還是推廣到專題頁的轉化率太低?還是專題頁的跳出太高,基本沒人進入到課程?又或者是課程頁面到報名的轉化太差?還是說報名後的訂單確認和支付流程流失掉了太多的人?

以及,如果我們已經界定清楚了,以上幾個大環節中的某一個環節存在問題,比如說,我們已經發現了推廣到專題的流量數據太差,那具體又是什麼原因導致的?是因為我們去到鋪得太少,還是因為渠道執行力度不夠?還是推廣素材和文案太差?

如果按照以上的思路來對於這個專題的數據進行分析,我們可以發現,該專題的問題可能主要出現在以下幾方面——

1. 專題頁的整體UV就很差。累計1000出頭的UV對於一個專題來說實在是太可憐了。而具體的原因,可能包括:

1)專題上線時間太匆忙。可以看到,8月3號就要開課的專題7月31號才上線;

2)專題推廣不是特別給力,具體是鋪設的渠道不夠,還是在特定渠道內沒做好執行,這個可能需要進一步具體去看每個渠道的具體流量構成和結合執行情況來進行分析了。

2. 專題頁的效率普遍較差。一方面是其跳出率超過40%,另一方面則是從專題頁導到單堂課程的UV,最多也不過187,僅相當於專題頁流量的10%左右,這個效率還是低得有些可怕的。

3. 從單堂課程的層面來看,課程3對用戶的吸引力可能比較差(報名和課程頁訪問都很少),課程4的課程詳情頁或定價等可能有可以優化的空間(訪問很多,報名很少),課程6則是報名轉化率還不錯,但目測整體在站內得到曝光的機會比較少。

走完了這個例子,是不是感覺數據真的可以幫助我們把問題界定得無比精細,讓我們言之有物目標確鑿?

4.

下面我們再來說數據的第二類價值體現:假如你想達成某個特定目標,如何通過數據來評估和具體化你的最佳達成路徑?

我們也來看一個例子:假如三節課在接下來一個月的目標是要把日均報名上課人次這個指標提升到20000(當前為2000)的話,投入預算成本最低的情況下,我們可以怎麼做?

拿到這個問題後,我們首先可以依照上一篇連載里提到的目標拆解方法對於我們的目標進行拆解,於是可得——

課程報名人次=網站流量×課程轉化率×人均報名課程數

然後,既然是要把目標指標提升10倍,我們要分別評估一下提升3個因子的可能性。

先看網站流量,假定三節課的目標用戶主要是3歲以內的互聯網產品+運營領域的從業者,目標用戶共計約100W左右,但目前網站日UV只有不到3000,那麼以正常邏輯推斷,在網站正常日UV方面拉升到目標用戶的10分之一左右,也就是10W應該都是可以的。但這個流量如果是需要在短期內拉動,肯定是需要投入一些費用的。

再看課程轉化率,假使目前網站整體UV-課程報名人數的轉化率為2%,同時又經過分析發現,每天訪問課程頁面的UV為2000左右,那麼依據經驗判斷,這已經是一個還算不錯的轉化數據了。按照我們參考其他同類課程學習類網站的數據,3%已經是很上等的網站UV/報名數轉化率。我們在此暫且認為我們經過流程梳理後,可以在加強站內課程曝光引導、優化課程列表頁、詳情頁等布局以及課程文案、優化課程報名流程體驗等環節均作出一定優化,從而實現3%的轉化率,整體提升1.5倍。

最後是人均報名課程數,假使我們發現目前三節課的平均每用戶報名課程數量為2堂,而站內每月會同時開出25堂課,且這25堂課間往往都是彼此關聯存在邏輯遞進關係的。於是我們可以據此判定了,人均報名課程數這個因子是存在明顯可以提升的空間的。因為三節課目前主要有兩個主要的課程體系,且每個體系課程目前已有12堂課,所以我們姑且推斷,依靠課程打包、相關課程推薦、站內消息告知、一次性報名多堂課程贈送絕密資料等等一系列運營手段,應該可以把單用戶人均報名課程數提升到10堂課左右,整體提升5倍。

好了,因為我們的命題要求是「預算最低」,所以我們的思路一定是優先考慮無預算的指標拉升手段,再考慮有預算的指標拉升手段。那麼基於以上的推斷,我們應該可以在不做預算投入的情況下做到以下狀態——

課程報名人次=網站流量×(課程轉化率×1.5)×(人均報名課程數×5)

即,課程報名人次=網站流量×課程轉化率×人均報名課程數×7.5

此時我們發現,如果按照這個推斷,課程報名人次這個指標,已經被我們提升了將近7.5倍。也就是說,為了達成10倍的目標,理論上我們只需要再投入一些預算,把網站流量再提升到原有基礎1.33倍以上即可有望達成預定目標。

至此,我們的這個最低成本達成目標的運營方案,算是成形。

上述這個不斷尋找對標數據來反覆進行推導思考的過程,也希望可以帶給你一些啟發。

5.

下面再看數據的第三類價值體現:極度精細的數據分析可以幫助你通過層層深入,對於用戶更了解,也對整個站內的生態更有掌控力。

還是來看個例子:假如目前所有站內數據可以對我們開放,那麼站在運營端,若我們需要對於三節課的用戶行為有更加深入精確的理解,從而更好指導我們的運營工作,我們該以何種思路去對於數據進行分析和比對,從而得出一些更有價值的信息?

這裡要先引入兩個數據分析中的基本概念:維度和度量。

簡單來說,度量就是具體的數據指標,它通常表現為某個量化過後的數據值。而維度則是去看待這些指標的不同角度。

舉例,網站的UV(用戶訪問數)是一個數據指標,而我們去看待它的時候,可以從日期的維度去看,以便評估一周或一個月內哪幾天流量偏高或偏低,是否存在規律;

也可以從24小時時間劃分的維度去看,以評估每天在不同時間段的流量分布情況是怎樣的;還可以從地域的維度去看,了解不同地區的用戶訪問使用網站的習慣和情況是否存在差異……

理解了這兩個詞,最終你會發現,所謂數據分析,無非就是界定清楚了你要評估的度量有哪些,然後需要知道你可能有哪些維度去看待這些度量,偶爾可能還需要在不同維度和度量間交叉做一下分析和比對,最後產出結論,把結果用圖表等方式呈現出來就好了。

所以,回歸到這個例子,我們如果要結合具體的產品形態,對於三節課的用戶生態和使用習慣有更加深入的了解,我們或許可以先界定清楚,我們需要去評估的度量有哪些?這個度量需要結合你的核心產品功能來想,因為三節課網站上目前主要的產品功能就是上課學習,以用戶可能會在這個網站上發生的核心行為為主線來看的話,我們要重點關注的是以下三類行為:訪問、報名、上課。於是,圍繞著上述3個行為,我們要重點關注的度量就可能包括了:

網站訪問數,註冊數,報名課程數,實際上課用戶數,視頻停留時間,單視頻重複播放數。

同時,對於以上的部分度量,我們應該有一個自己預設的合理區間(這個區間需要基於你自己對於行業和用戶的了解來進行判斷得出,或者是通過持續探索得出),比如說,單課程的實際上課用戶數為該課程的報名用戶數的20%-50%之間我們可能認為是比較合理的,那麼如果該數值高於或低於了這個區間,均可視為異常。

然後,接下來的一步,就是我們需要再來逐次圍繞著每一個度量來去看看,我們可以有哪些維度去看待它、分析它、評估它。

比如,拿最簡單的課程報名數來舉例,我們要評估這個數據的維度可能包括了日期、時間、地區、新老用戶等,如果要把這個評估做到極致,我們可能需要從每一個維度依次去評估報名數這個指標的變化,從中發現一些線索或結論。

基本上,這種評估的出口有二:

一是判斷數據是否有一些異常需要注意的情況(如果出現異常數據,一定要分析原因);

二則是為了給自己的運營工作找到一些方向性的指導,比如說,我現在要是想要發起一個要把站內課程月報名數提升10倍,我是否可以從用戶行為和習慣之間去得到一些具體的啟發?且,很多時候,這兩個目的是可能會合一的。

好比,假如我們看到過去30天里的報名數據是這樣的:

那麼我們是否就需要去看一下,在報名數開始激增的那幾天里,到底發生了什麼?是因為我們有意識的做了一些推廣和活動?還是因為上線了新的課程?還是因為發生了什麼別的事情?

而,假如你發現,如果相應數據的激增是因為課程信息偶然間被人分享到了某個社區內(比如知乎)並引發了一輪小小的傳播,那麼接下來你如果想要從運營端做一些事來提升課程報名數這個指標的話,你是不是就可以有意識的在知乎去做一些事?比如認真分析一下之前的內容為什麼能在知乎引發傳播,然後把傳播點提煉出來,用更適於知乎的形式去進行一輪包裝,並想盡辦法在知乎再進行新一輪的擴散。

事實上,我個人就曾經親歷過類似的案例,2009年前後,當時我所供職的一家互聯網公司,就曾經因為發現我們的某個產品被用戶在人人網分享後帶來了過萬的UV,從這一線索入手,我們開始深耕人人網,最後在短時間內給該產品帶來了數十倍的數據增長。

另外,這種數據分析的另一個維度,就是依照你的常識對用戶進行劃分,再去分別看數據+結合用戶訪談,了解不同類型的用戶,在具體行為習慣上可能會有哪些不同。

比如,因為三節課主要解決的需求是學習,還沒有工作經驗的大學生和工作了2年以上的互聯網人,理論上學習習慣肯定是不同的,此時我們就可以分別從數據上去觀察,這兩類人的訪問、報名、聽課、課後作業包括學習產出和效果等等一系列行為上存在多大區分和差異。

當這些問題界定清楚後,事實上你是可以根據用戶類型的不同,分別推送給他們不同的服務和引導他們完成不同的用戶行為的(比如已工作的上來先做個任務,還是大學生的則先去聽兩堂入門課),這樣精細化的運營可以大大助推你的用戶留存和活躍。

最終,假如你手邊的數據足夠充分,且這種從度量維度切入的分析做到極致,理論上你會對於整體站內用戶的構成、行為習慣和當前產品的主要問題做到瞭然於胸,也會對於站內的整體用戶生態更加具有掌控力。

這裡再補充兩個小說明:

第一,理論上,假如作為一個運營負責人,我們應該對於每一個關鍵性的用戶行為都定期(比如每三個月或每半年)進行全方位多維度的分析,做到對於每一個關鍵用戶行為的用戶習慣和當前產品指標中的問題點瞭然於胸的。

但,事實上是絕大部分運營都可能看不到那麼全的數據,這裡面原因有很多,比如數據後台不完善,沒有數據許可權等等,這時候我們該怎麼辦?

我的建議是:

  1. 不管看不看得到,你都要讓自己具備這樣的分析問題和解決問題的意識+能力;

  2. 如果某個數據的缺失已經嚴重影響到了你的工作開展,一定要向老闆持續溝通持續要,直到拿到為止;

  3. 如果只能拿到局部數據,那就先對局部數據進行一些分析和推斷,再帶著你的一些假設去工作,以工作成果來驗證你的假設。再隨著業務的發展和要求不斷去完善數據需求。

第二,對很多產品來說,往往都是20%的重點用戶,給該產品帶來了80%的價值。

所以,無論是分析數據還是具體開展運營工作,你也要培養起來這樣一個意識:要重點去關注對你最有價值的那部分用戶,把你至少50%左右的精力用於去關注他們。

比如說,你站內更加活躍的用戶,更願意貢獻內容的用戶,更願意參與用戶服務和管理的用戶,等等。

6.

承接著上面講到的例子背景,接下來我們可以把最後一個點也一併講了——

數據當中可能隱藏著一些潛在的能讓你把一件事情變得更好的線索和彩蛋,有待於你去發現和挖掘。

關於這件事,基礎的邏輯可能是這樣的——

第一,你先找出你的產品中,當前可能存在問題的某個關鍵度量(或稱指標)。

第二,對於這個度量進行縱覽,從它的構成去看:是否所有用戶或我們的所有服務在這個度量上的表現都很差?還是說有一部分用戶或服務在該度量上的表現是會顯著好於其他用戶或服務的。

第三,你可以對於那些表現顯著要好的用戶和服務在不同維度上進行進一步挖掘,尋找其背後的一些共性用戶行為或特徵,然後再把這些特徵放大到極致。

比如說,上個月三節課站內課程報名量表現不佳,明顯走低,按照上面所說到的邏輯,我們可以依次來進行如下思考和判定——

  1. 把上個月的所有課程的報名數都列出來,然後去觀察,是否所有課程的報名量都很差,還是有一些課程的報名會好一些。最終我們發現,其中存在6堂課程,它們的報名數普遍高於其他課程2倍以上。

  2. 我們把報名量很高的這6堂課程歸類到一起,然後依照各個維度去看一下,它們之間是否存在一些共性?比如,都在某個時間開課,都是某一個品類的課程,都是某位老師的課程,文案都是按照某個模板來寫的,或用戶在報名這些課程前都接受了某種特定的引導,等等。

  3. 最終,假如通過這樣的比對,我們可能得出了結論,比如說發現這6堂課程使用的都是同一個文案模板,或者用戶在報名這6堂課程前普遍都看過了我們的某篇文章之類的,那麼這時候,我們就已經找到了一個可能能幫助我們把事情變得更好的線索了。

於是,接下來,我們最應該做的事情,可能就是把相應的文案模板複製到其他課程的文案介紹中去,或者引導更多的新用戶在報名上課之前都去看一看我們那篇神奇的文章。

7.

如果打個比方的話,但凡打仗想要獲勝,你既得有上陣殺敵的本領,又要能夠運籌帷幄,找對你的突破口和取勝策略。策略和突破口沒找對,很可能任你有萬夫不當之勇,仍然無情湮沒於人海中;而硬本領不夠強,則策略再好,你也根本沒有取勝的可能。

這當中,數據對於運營的作用與價值,就是它幫助你找到一塊戰場上的發力點和突破口。

換句話講,一個不懂得跟數據打好交道的運營,很可能到了戰場上,會是盲目的。

但同時,數據也是一個很龐大的分支,關於各種數據分析的策略、方法、工具之類的,如果真的要放開了去講,可能又是一本書。

考慮到題主問的是「運營」,且大多數運營都應該涉及不到那麼深和高級的數據分析技巧,我寫此文的目的,可能只是希望你能對於數據與運營工作間的關係有一個較完整的理解,以及理解一些基本的數據意識和分析思路,了解真正把運營的精細化要做到極致,數據是需要在其中扮演必不可少的作用的。

————以下為硬廣————

可能是目前最有溫度的互聯網產品+運營學習社區。

http://weixin.qq.com/r/JnVAWGPE6j6VrSc79yA0 (二維碼自動識別)


-------------------------------------------------------------------------------

補充,我們最近推出了數據驅動的產品,諸葛IO, http://www.zhugeio.com 歡迎大家討論

-----------------------------分割線--------------------------------------------------

作為網站或者app的運營者,大家對cnzz,百度統計,友盟,talkingdata,騰訊統計等都應該很熟悉,這些工具確實給了運營者更好的方式來工作,包括獲得精準的統計,數據的可視化,更方便的彙報資料,甚至一些運營策略的實施和效果監測。 但是回到問題的本質,運營背後的目的是什麼?運營人員為什麼要使用這些工具?這些工具怎麼幫助運營者實現運營的目標?目前國外市場已經開始解決此類問題,通過和部分運營者的溝通中了解到,國內運營人員對數據的理解和使用參差不齊,那麼是否在國內還有相關的機會呢?我們先來回顧以上的幾個問題吧。

1. 運營背後的目的是什麼? 一般網站和app運營的核心指標基本跑不掉訪問量,訪問時長,註冊用戶量,日活用戶數,用戶留存,流量來源分析,核心頁面的轉化率,用戶ARPU,用戶需求的挖掘,產品體驗優化反饋。更高層次要求的甚至需要對市場策略等提出優化方案,競品和行業的數據監測和策略對比分析。

2.運營人員為什麼要使用這些工具? 答案只有一個,就是要解決以上的問題。 從表面上看,目前的工具基本解決了以上的問題。我們陳述的指標在各個工具中都有了體現,運營人員可以獲得相關的數據和不錯的可視化報表。 但是,目前解決的只是表面,簡單說拿到這些數據之後,運營人員需要更專業的工具來輔助完成數據背後的相關因素的分析。比如看到日活下降,看到留存下降,然後呢?怎麼辦?當這些數據和運營的指標之間有gap時,如何從數據的角度更好的服務運營人員?所以需要一個發現問題的工具來輔助運營分析。

3. 這些工具如何幫助運營實現目標?目前無法實現,出了部分推出類似個推和極光的push功能,支持按照標籤來推送外,目前非常粗放。事實是這些工具已經有了所有用戶的行為數據,對用戶的行為分析是很自然的做法。 但是目前還未有很好的解決方案,對於即使有數據分析能力的團隊來說,同樣有個問題就是這些工具目前不支持用戶具體行為數據的導出功能。

以上,是最近調研的結果,作為一個沒有做過運營,想為運營者服務的數據控的觀察。

對於後續的趨勢,基於數據驅動的,特殊群體,甚至個體用戶的運營,預測式的運營都將慢慢實現,所以作為運營人員,我們還是多看看和想想這些指標之後的因素吧。


正好我做過一個相關話題的分享:如何用數據驅動產品和運營。

內容1:【大數據思維】

首先,來看第一個部分內容——談一下大數據思維和數據驅動。

在2011年、2012年大數據概念火了之後,可以說這幾年許多傳統企業也好,互聯網企業也好,都把自己的業務給大數據靠一靠,並且提的比較多的是大數據思維。

那麼大數據思維是怎麼回事?我們來看個例子:

【案例1:輸入法】

首先,我們來看一下輸入法的例子。我2001年上大學,那時用的輸入法比較多的是智能ABC,還有微軟拼音,還有五筆。那時候的輸入法比現在來說要慢的很多,許多時候輸一個詞都要選好幾次,去選詞還要多次調整才能把這個字打出來,效率是非常低的。

到了2002年、2003年出了一種新的輸出法——紫光拼音,感覺真的很快,鍵盤沒有按下去字就已經跳出來了。但是,後來很快發現紫光拼音輸入法也有它的問題,比如當時互聯網發展已經比較快了,會經常出現一些新的辭彙,這些辭彙在它的詞庫里沒有的話,就很難敲出來這個詞。

在2006年左右,搜狗輸入法出現了。搜狗本身是一個搜索,它積累了一些用戶輸入的檢索詞這些數據。用戶用輸入法時候也會產生的這些詞的信息。搜狗輸入法將它們進行統計分析,把一些新的辭彙逐步添加到詞庫里去,通過雲的方式進行管理。

比如,去年流行一個詞叫「然並卵」,這樣的一個詞如果用傳統的方式,因為它是一個重新構造的詞,在輸入法是沒辦法通過拼音「ran bing luan」直接把它找出來的。然而,在大數據思維下那就不一樣了,換句話說,我們先不知道有這麼一個辭彙,但是我們發現有許多人在輸入了這個辭彙,於是,我們可以通過統計發現最近新出現的一個高頻辭彙,把它加到司庫裡面並更新給所有人,大家在使用的時候可以直接找到這個詞了。

【案例2:地圖】

再來看一個地圖的案例。在這種電腦地圖、手機地圖出現之前,我們都是用紙質的地圖。這種地圖差不多就是一年要換一版,因為許多地址可能變了,並且在紙質地圖上肯定是看不出來,從一個地方到另外一個地方怎麼走是最好的?中間是不是堵車?這些都是有需要有經驗的各種司機才能判斷出來。

在有了百度地圖這樣的產品就要好很多,比如:它能告訴你這條路當前是不是堵的?或者說能告訴你半個小時之後它是不是堵的?它是不是可以預測路況情況?

此外,你去一個地方它可以給你規劃一條防擁堵路線,這些就是因為它採集到許多數據。比如:大家在用百度地圖的時候,有GPS地位信息,基於你這個位置的移動信息,就可以知道路的擁堵情況。另外,他可以收集到很多用戶使用的情況,可以跟交管局或者其他部門來採集一些其他攝像頭、地面的感測器採集的車輛的數量的數據,就可以做這樣的判斷了。

這裡,我們來看一看紙質的地圖跟新的手機地圖之間,智能ABC輸入法跟搜狗輸入法都有什麼區別?

這裡面最大的差異就是有沒有用上新的數據。這裡就引來了一個概念——數據驅動。有了這些數據,基於數據上統計也好,做其他挖掘也好,把一個產品做的更加智能,變得更加好,這個跟它對應的就是之前可能沒有數據的情況,可能是拍腦袋的方式,或者說我們用過去的,我們想清楚為什麼然後再去做這個事情。相比之下數據驅動這種方式效率就要高很多,並且有許多以前解決不了的問題它就能解決的非常好。

【數據驅動】

對於數據驅動這一點,可能有些人從沒有看數的習慣到了看數的習慣那是一大進步,是不是能看幾個數這就叫數據驅動了呢?這還遠遠不夠,這裡來說一下什麼是數據驅動?或者現有的創業公司在進行數據驅動這件事情上存在的一些問題。

一種情況大家在公司裡面有一個數據工程師,他的工作職責就是跑數據。

不管是市場也好,產品也好,運營也好,老闆也好,大家都會有各種各樣的數據需求,但都會提給數據工程師老王。然而,這個資源也是有限的,他的工作時間也是有限的,只能一個一個需求去處理,他本身工作很忙,大家提的需求之後可能並不會馬上就處理,可能需要等待一段時間。即使處理了這個需求,一方面他可能數據準備的不全,他需要去採集一些數據,或做一些升級,他要把數據拿過來。拿過來之後又在這個數據上進行一些分析,這個過程本身可能兩三天時間就過去了,如果加上等待的時間更長。

對於有些人來說,這個等待周期太長,整個時機可能就錯過了。比如,你重要的就是考察一個節日或者一個開學這樣一個時間點,然後想搞一些運營相關的事情,這個時機可能就錯過去了,許多人等不到了。有些同學可能就乾脆還是拍腦袋,就不等待這個數據了。這個過程其實就是說效率是非常低的,並不是說拿不到這個數據,而是說效率低的情況下我們錯過了很多機會

對於還有一些公司來說,之前可能連個數都沒有,現在有了一個儀錶盤,有了儀錶盤可以看到公司上個季度、昨天總體的這些數據,還是很不錯的。

對老闆來說肯定還是比較高興,但是,對於市場、運營這些同學來說可能就還不夠。比如,我們發現某一天的用戶量跌了20%,這個時候肯定不能放著不管,需要查一查這個問題出在哪。這個時候,只看一個宏觀的數那是遠遠不夠的,我們一般要對這個數據進行切分,按地域、按渠道,按不同的方式去追查,看到底是哪少了,是整體少了,還是某一個特殊的渠道獨特的地方它這個數據少了,這個時候單單靠一個儀錶盤是不夠的。

理想狀態的數據驅動應該是怎麼樣的?就是一個自助式的數據分析,讓業務人員每一個人都能自己去進行數據分析,掌握這個數據。

前面我講到一個模式,我們源頭是一堆雜亂的數據,中間有一個工程師用來跑這個數據,然後右邊是接各種業務同學提了需求,然後排隊等待被處理,這種方式效率是非常低的。理想狀態來說,我們先將大數據源本身整好,整全整細了,中間提供強大的分析工具,讓每一個業務員都能直接進行操作,大家並發的去做一些業務上的數據需求,這個效率就要高非常多。

內容2:【數據處理的流程】

接下來我們講第二部分數據處理的流程。

大數據分析這件事用一種非技術的角度來看的話,就可以分成一個一個數據金字塔,自底向上的是三個部分:第一個部分是數據採集,第二個部分是數據建模,第三個部分是數據分析,我們來分別看一下。

【數據採集】

首先來說一下數據採集,我在百度幹了有七年是數據相關的事情。我最大的心得——數據這個事情如果想要做好,最重要的就是數據源。數據源這個整好了之後,後面的事情都很輕鬆。

用一個好的查詢引擎、一個慢的查詢引擎無非是時間上可能消耗不大一樣,但是數據源如果是差的話,後面用再複雜的演算法可能都解決不了這個問題,可能都是很難得到正確的結論。

好的數據源我覺得就是兩個基本的原則,一個是全,一個是細

:就是說我們要拿多種數據源,不能說只拿一個客戶端的數據源,服務端的數據源沒有拿,資料庫的數據源沒有拿,做分析的時候沒有這些數據你可能是搞不了的。另外,大數據裡面講的是全量而不是抽樣。不能說只抽了某些省的數據,然後就開始說全國是怎麼樣。可能有些省非常特殊,比如新疆、西藏這些地方它客戶端跟內地可能有很大差異的。

:其實就是強調多維度,在採集數據的時候盡量把每一個的維度、屬性、欄位都給它採集過來。比如:像where、who、how這些東西給它採集下來,後面分析的時候就跳不出這些能夠所選的這個維度,而不是說開始的時候也圍著需求。根據這個需求確定了產生某些數據,到了後面真正有一個新的需求來的時候,又要採集新的數據,這個時候整個迭代周期就會慢很多,效率就會差很多,盡量從源頭抓的數據去做好採集

【數據建模】

有了數據之後,就要對數據進行加工,不能把原始的數據直接暴露給上面的業務分析人員,它可能本身是雜亂的,沒有經過很好的邏輯抽象的。

這裡就牽扯到數據建模。首先,提一個概念就是數據模型。許多人可能對數據模型這個詞產生一種畏懼感,覺得模型這個東西是什麼高深的東西,很複雜,但其實這個事情非常簡單。

我春節期間在家干過一件事情,我自己家裡面家譜在文革的時候被燒掉了,後來家裡的長輩說一定要把家譜這些東西給存檔一下,因為我會電腦,就幫著用電腦去理了一下這些家族的數據這些關係,整個族譜出來。

我們現實是一個個的人,家譜裡面的人,通過一個樹型的結構,還有它們之間數據關係,就能把現實實體的東西用幾個簡單圖給表示出來,這裡就是一個數據模型。

數據模型就是對現實世界的一個抽象化的數據的表示。我們這些創業公司經常是這麼一個情況,我們現在這種業務,一般前端做一個請求,然後對請求經過處理,再更新到資料庫裡面去,資料庫裡面建了一系列的數據表,數據表之間都是很多的依賴關係。

比如,就像我圖片裡面展示的這樣,一個業務線發展差不多一年以上它可能就牽扯到幾十張甚至上百張數據表,然後把這個表直接提供給業務分析人員去使用,理解起來難度是非常大的。

這個數據模型是用於滿足你正常的業務運轉,為產品正常的運行而建的一個數據模型。但是,它並不是一個針對分析人員使用的模型。如果,非要把它用於數據分析那就帶來了很多問題。比如:它理解起來非常麻煩。

另外,數據分析很依賴表之間的這種格式,比如:某一天我們為了提升性能,對某一表進行了拆分,或者加了欄位、刪了某個字短,這個調整都會影響到你分析的邏輯。

這裡,最好要針對分析的需求對數據重新進行建模,它內容可能是一致的,但是我們的組織方式改變了一下。就拿用戶行為這塊數據來說,就可以對它進行一個抽象,然後重新把它作為一個分析表。

用戶在產品上進行的一系列的操作,比如瀏覽一個商品,然後誰瀏覽的,什麼時間瀏覽的,他用的什麼操作系統,用的什麼瀏覽器版本,還有他這個操作看了什麼商品,這個商品的一些屬性是什麼,這個東西都給它進行了一個很好的抽象。這種抽樣的很大的好處很容易理解,看過去一眼就知道這表是什麼,對分析來說也更加方便。

在數據分析領域領域領域,特別是針對用戶行為分析方面,目前比較有效的一個模型就是多維數據模型,「在線分析處理」這個模型。它裡面有這個關鍵的概念,一個是維度,一個是指標

維度比如城市,然後北京、上海這些一個維度,維度西面一些屬性,然後操作系統,還有IOS、安卓這些就是一些維度,然後維度裡面的屬性。

通過維度交叉,就可以看一些指標問題,比如用戶量、銷售額,這些就是指標。比如,通過這個模型就可以看來自北京,使用IOS的,他們的整體銷售額是怎麼樣的。

這裡只是舉了兩個維度,可能還有很多個維度。總之,通過維度組合就可以看一些指標的數,大家可以回憶一下,大家常用的這些業務的數據分析需求是不是許多都能通過這種簡單的模式給抽樣出來。

內容3:【數據分析方法】

接下來看一下互聯網產品採用的數據分析方法。

對於互聯網產品常用的用戶行為分析來說,有這麼四種:

  • 一種是多維事件的分析,分析維度之間的組合、關係。
  • 第二種是漏斗分析,對於電商、訂單相關的這種行為的產品來說非常重要,要看不同的渠道轉化這些東西。
  • 第三種留存分析,用戶來了之後我們希望他不斷的來,不斷的進行購買,這就是留存。
  • 第四種回訪,回訪是留存的一種特別的形式,可以看他一段時間內訪問的頻次,或者訪問的時間段的情況

【方法1:多維事件分析法】

首先來看多維事件的分析,這塊常見的運營、產品改進這種效果分析。其實,大部分情況都是能用多維事件分析,然後對它進行一個數據上的統計。

1. 【三個關鍵概念】

這裡面其實就是由三個關鍵的概念,一個就是事件,一個是維度,一個是指標

事件就是說任何一個互聯網產品,都可以把它抽象成一系列事件,比如針對電商產品來說,可抽象到提交、訂單、註冊、收到商品一系列事件用戶行為。

每一個事件裡面都包括一系列屬性。比如,他用操作系統版本是否連wifi;比如,訂單相關的運費,訂單總價這些東西,或者用戶的一些職能屬性,這些就是一系列維度

基於這些維度看一些指標的情況。比如,對於提交訂單來說,可能是他總提交訂單的次數做成一個指標,提交訂單的人數是一個指標,平均的人均次數這也是一個指標;訂單的總和、總價這些也是一個指標,運費這也是一個指標,統計一個數後就能把它抽樣成一個指標。

2. 【多維分析的價值】

來看一個例子,看看多維分析它的價值。

比如,對於訂單支付這個事件來說,針對整個總的成交額這條曲線,按照時間的曲線會發現它一路在下跌。但下跌的時候,不能眼睜睜的看著它,一定要分析原因。

怎麼分析這個原因呢?常用的方式就是對維度進行一個拆解,可以按照某些維度進行拆分,比如我們按照地域,或者按照渠道,或者按照其他一些方式去拆開,按照年齡段、按照性別去拆開,看這些數據到底是不是整體在下跌,還是說某一類數據在下跌。

這是一個假想的例子——按照支付方式進行拆開之後,支付方式有三種,有用支付寶alipay,或者用微信支付,或者用銀行看內的支付這三種方式。

通過數據可以看到支付寶、銀行支付基本上是一個沉穩的一個狀態。但是,如果看微信支付,會發現從最開始最多,一路下跌到非常少,通過這個分析就知道微信這種支付方式,肯定存在某些問題。

比如:是不是升級了這個介面或者微信本身出了什麼問題,導致了它量下降下去了?

【方法2:漏斗分析】

漏斗分析是用數據來看一個用戶從做第一步操作到後面每一步操作,實際的轉化過程。

比如,一批用戶先瀏覽了你的首頁,瀏覽首頁之後可能一部分人就直接跑了,還有一部分人可能去點擊到一個商品裡面去,點擊到商品可能又有很多人跑了,接下來可能有一部分人就真的購買了,這其實就是一個漏斗。

通過這個漏斗,就能分析一步步的轉化情況,然後每一步都有流失,可以分析不同的渠道其轉化情況如何。比如,打廣告的時候發現來自百度的用戶漏斗轉化效果好,就可能在廣告投放上就在百度上多投一些。

【方法3:留存分析】

比如,搞一個地推活動,然後來了一批註冊用戶,接下來看它的關鍵行為上面操作的特徵,比如當天它有操作,第二天有多少人會關鍵操作,第N天有多少操作,這就是看它留下來這個情況。

【方法4:回訪分析】

回訪就是看進行某個行為的一些頻度特徵,如對於購買黃金這個行為來說,在一周之內至少有一天購買黃金的人有多少人,至少有兩天的有多少人,至少有7天的有多少人,或者說購買多少次數這麼一個分布,就是回訪回購這方面的分析。

上面說的四種分析結合起來去使用,對一個產品的數據支撐、數據驅動的這種深度就要比只是看一個宏觀的訪問量或者活躍用戶數就要深入很多。

內容4:【運營分析實踐】接下來講第四部分,個人在運營和分析方面的實踐,給大家分享一下。

【案例1:UGC產品】

首先,來看UGC產品的數據分析的例子。可能會分析它的訪問量是多少,新增用戶數是多少,獲得用戶數多少,發帖量、檢索量。

例如貼吧、百度知道,還有知乎都屬於這一類的產品。對於這樣一個產品,會有很多數據指標,可以從某一個角度去觀察這個產品的情況。那麼,問題就來了——這麼多的指標,到底要關注什麼?不同的階段應該關注什麼指標?這裡,就牽扯到一個指標的梳理,還有關鍵指標的問題

【百度知道】

2007年我加入百度知道之後,剛開始做後端研發。作為RD,我每天也收到一系列報表郵件,這些報表裡面有很多統計的一些數據。比如,百度知道的訪問量、檢索量、IP數、Session數、提問量、回答量,設置追加答案的數量,這一系列指標。當時,看的其實感覺很模糊。

我在思考:這麼多的指標,不能說這也提高,那也提高吧?每個階段肯定要思考哪個事最關鍵的,重點要提高哪些指標。開始的時候其實是沒有任何區分的,不知道什麼是重要、什麼是不重要。

後來,慢慢有一些感觸和認識,就發現其實對於訪問量、檢索量這些相關的。因為百度知道大部分流量都是來自於大搜索,把它的展現做一下調整或者引導,對量的影響非常大。雖然,跟百度知道本身做的好壞也有直接關係,但是它很受渠道的影響——大搜索這個渠道的影響。

提問量開始的時候,我認為非常重要,怎麼提升提問量,那麼整個百度知道平台的這個問題就多了。提升回答量,讓這些問題得到回答,高質量的內容就非常多了,又提升提問量,而後再提升回答量——其實等於是兩類人了。而怎麼把它做上去,我當時有一些困惑,有一些矛盾,到底什麼東西是最關鍵的。

有一次產品會,每一個季度都有一個產品會。那個時候,整個部門的產品負責人是孫雲豐,可能在百度待過的或者說對百度產品體系有了解的都會知道這麼一個人,非常厲害的一個產品經理。我當時就問了他這個問題,我對提問量、回答量都要提升這個困惑。

他就說了一點,其實提問量不是一個關鍵的問題,為什麼?我們可以通過大搜索去找,如果一個用戶在大搜索裡面進行搜索,發現這個搜索沒有一個好的答案,那就可以引導他進行一個提問,這樣其實這個提問量就可以迅速提升上去。

我一聽一下就解決了這個困惑,最關鍵的就是一個回答量,我所做的事情其實怎麼去提升回答量就可以了。

這裡面把百度知道這個產品抽象成了最關鍵的一個提升——那就是如何提升回答量,在這個問題上當時做了一個事情就是進行問題推薦

百度知道有一批活躍用戶,這些用戶就喜歡回答問題。於是,我們思考:能不能把一些他們可以回答的問題推薦給他們,讓他們回答各種各樣的問題——這個怎麼去做呢?

這個思路也很簡單,現在個性化推薦都是比較正常的,大家一般都知道這麼一回事。但是,2008年做推薦這個事情其實還是比較領先的,從我了解的情況來看,國內的是2010年個性化推薦引擎這塊技術火了,但後來有些公司做這方面後來都倒掉了。

實現策略是非常簡單的,我們就看一個用戶歷史的回答記錄,看他回答的這些問題title是什麼、內容是什麼。

由於百度很擅長做自然語言的處理,基於這些,通過這裡面的抽取用戶的興趣詞,感興趣的話題,然後把待解的問題,與該問題的相關用戶進行一個匹配,匹配上了就把這個問題推薦給這個用戶。

當時,我們做的一個事情就是:把過去幾個月回答量比較高的用戶進行一個抽取,對他們訓練一個模型——就是對每個用戶有一系列的話題興趣點,然後每個點都有一個程度,這就是一個用戶的模型向量,就是一個興趣項量,當時抽了35萬個用戶。

這個效果是這樣的,現在我已經找不到我們當年做的圖片,這是我前一段時間截的圖,大體類似。比如,我對數據分析相關的問題回答了不少,它就會給我推薦數據分析相關的問題。

我們這個功能差不多做了有三個月,把它推上線我們其實是滿懷期待的,結果效果如何呢?

上線之後很悲劇,我們發現總的回答量沒有變化。於是,我們又進一步分析了一下原因。當時,最開始這些核心用戶在回答問題的時候都是找分類頁。比如:電腦這個分類,然後看電腦相關的問題,有興趣的就回答。

後來,我們做了一個推薦:在個人中心裏面加了一個猜他喜歡的tab,然後推給他,結果用戶從分類頁回答這個問題轉到了個人中心。但是,平均一個人回答量並沒有變化,當時做的統計,這些核心用戶就每天回答六個問題,超過六個他就沒動力回答了。

我們事後分析原因,有一個原因他可能本身的回答量就是這麼一條線,誰能天天在哪裡源源不斷的回答問題。還有一個同事就分析當時讓他一個痛苦的地方,因為我們是源源不斷地推薦,然後他就發現回答幾個之後還有幾個,回答了幾次就感覺要崩潰了,就不想再這麼回答下去了。

其實,年前時知乎在問題推薦上也做了不少功夫,做了許多測試。年前有一段時間,它天天給我推一些新的問題,然後我去回答。後來,發現推的太多了,就沒回答的動力了。

針對這些核心用戶會發現從他們上面榨取不了新的價值了。於是,我們調轉了矛頭,從另一個角度——能不能去廣撒網,吸引更多的用戶來回答問題,這個做的就是一個Cookie推薦。

訪問百度的時候,百度不管用戶是否登錄,會在用戶Cookie裡面去設置一個用戶標識。通過這個標識能夠對這個用戶進行一個跟蹤,雖然不知道用戶是誰,但是,起碼能把同一個用戶這個行為給它串起來。這樣,就可以基於他歷史的檢索,各種搜索詞,還有他瀏覽的各種頁面的記錄,然後去提取一些興趣,然後給這些Cookie建一個模型。

這樣有一個好處,能夠覆蓋的用戶量非常大,前面講的核心用戶推薦只覆蓋了只有35萬的核心用戶,但是通過這種方式可以覆蓋幾億百度用戶,每一次用戶登錄之後或者訪問百度知道之後我們就基於他本身興趣然後走一次檢索,在解決問題裡面檢索一下跟他匹配的就給他推薦出來。

比如前一段,我自己在沒有登錄的時候,其實我是會看馬爾克斯。我比較喜歡馬爾克斯的作品,我當時搜了馬爾克斯的一些相關的內容。它就抽取出來我對馬爾克斯什麼感興趣,就給我推薦了馬爾克斯相關的問題,可能我知道我不可能就會點進去回答。

這個功能上了之後效果還是很不錯的,讓整體的回答量提升了7.5%。要知道,百度知道產品從2005年開始做,做到2007年、2008年的時間這個產品已經很成熟了。在一些關鍵指標進行大的提升還是非常有挑戰的,這種情況下我們通過這種方式提升了7.5%的回答量,感覺還是比較有成就感,我當時也因為這個事情得了季度之星。

【案例2:SAAS】

講了百度知道之後,我們接下來講一下SAAS運營分析實踐。

因為我自己目前創業做的這個產品就是針對於互聯網創業公司做用戶相關分析這塊,我們對產品在去年9月25號的時候正式對外發布,發布本身我們其實進行了一些數據的分析。後來,又嘗試了一些廣告渠道也做了一些數據分析。之後,又針對流失的一些用戶我們也搞了一些周圍活動,我把整個真實的經歷給大家分享一下。

【產品發布】

首先,我們來說我們這個產品發布,所謂的發布其實也很簡單。當時在公司成立正好五個月的時候,我們聯繫了36Kr,讓36Kr給採訪報道了一篇文章在當天發布出去。另外在朋友圈、微信群裡面發一發紅包,讓周圍的人都知道我們這個產品正式對外發布了。

左側的圖就是我自己在朋友圈發的信息,當時許多人點贊,還有許多人幫著去轉發,中間是我們的36Kr上報道的一篇文章,右側是我們當時為了讓鏈接展示的好看一點,可以在微信裡面重新發一遍,至少顯示一個,下面圖的形式好看了很多。

另外,既然我們自己是做數據的,當然要對這個發布活動進行一下數據分析了,怎麼分析呢?我們想搞一個有趣的一個事情,我們讓每一個人發鏈接的時候都帶一個渠道號,像我的渠道號就是ch=sangwf,我的CTO曹犟的是ch=caojiang,其他同學也是一樣的。

產品發布時,我們整個團隊一共12個人,每個人都帶著這麼個渠道號都發到自己朋友圈,還有微信群裡面去,然後我們跟蹤它的效果。

這是當天晚上的一個數據,最上面是36Kr,我們發現36Kr其實很小,這個跟我們的預期還是相當不符的。本來我們覺得36Kr上發一篇文章影響應該是非常大的,應該能給我們帶來不少訪問量,這個怎樣做的呢?——就是在36Kr那篇文章帶官網地址的時候,我在官網地址裡面加了一個渠道號等於36kr,這樣我就可以跟蹤它了。

我們看右邊的數據,發現我們CTO曹犟他帶來的用戶佔整體當天晚上28.7%,我的是27.9%,他的是比我的多,這點讓我還是有點不爽,我應該加把勁。右側是我另外一個合伙人,他帶來18.1%。

單純從看帶來的用戶量來說,這裡面是曹犟勝出來,我們的目的絕對不是讓用戶只是看了一下我們產品的一個瀏覽,其實更想達到的目的是讓用戶來了之後能真正試用一下我們的產品。因為,試用之後他對我們才有一個更客觀的認識,可能轉化成我們真正的客戶。

這是當天的一個漏斗,從最開始問首頁,有三千多個人,其中有28.9%,差不多30%左右人真正點擊申請試用的按紐,點了之後又有17.65%的會真正提交了申請試用,提交申請試用之後我們發帳號到手機簡訊、郵箱,這裡面又只有19.21%的真正回來去體驗了這個產品。通過這種分析其實效果就一目了然了。

我們再看跟不同人的轉化的數據,我把我們三個人還有36Kr這個數據單獨抽取出來來看,如果我們看帶來的用戶,曹犟帶來了1316,我帶來了1286。

然後,真正申請試用的用戶曹犟帶來了51個,而我帶來了87個,這個數據就比他多了,真正試用的人他帶來了7個,我帶來了22個,是他的3倍,,要好很多。從最終轉化效果來說,我帶來的用戶整體質量把他那個帶來的可能還是要好一些。

就是說我們通過漏斗這種方式進行數據的深度去看你的結論,跟你只是看一個表面,只是看一個整體的用戶數、訪問量這些東西,結論可能是完全不一樣的。

【廣告效果】

因為我自己用36Kr比較多,也知道周圍的創業者大家都會看36Kr,所以我對36Kr本身是比較感興趣,我就想著上面試試,在36Kr上做廣告效果怎麼樣,我當時聯繫了36Kr的商務,然後我就跟他去交流。

一交流發現他那個產品本身收費還是有點貴的,他們是按周往外一個廣告位投放,這個點一個廣告位可能要花好幾萬塊錢。對我們一個小的創業公司剛開始的創業公司這點錢花不起的,再想其他辦法吧。

那天,我跟她講了很多數據分析相關的知識,那個商務聽了之後覺得這個很有收穫。她說這樣吧,我送你一天,免費讓你掛一天廣告,幫我們做一下數據分析看看效果如何。

左側這個圖其實就是我們在36Kr做這個廣告展現的效果,在PC上去訪問36Kr的一個詳情的文章,左側展示這麼一個廣告,那一天真正在用36Kr的人可能就會留意到有這麼一個廣告的信息。

但是,右側是獵雲網,獵雲網也幫我們去天使輪的一個融資情況報道,就是通過獵雲網來報道的。他們也幫我們打了差不多一周左右的廣告,又創造了效果,也是一個平常廣告,看一個詳情的頁面右側會給你展示這個廣告效果。

獵雲網跟36Kr我覺得是一個同類似的網站,獵雲網可能針對投資人可能多一些,它整體訪問量我相信應該比36Kr還是有一個差距。

這裡我把知乎、36Kr、獵雲網三個渠道數據給它單獨抽出來然後看總體情況,從訪問首頁到最終去真正試用,整體轉化率差不多有6.82%,整體效果還是可以的。

我們對比實際數據,也發現這三種渠道整體效果可以說知乎還是最好的,如果看我知乎文章的人就會明白為啥我寫知乎專欄寫的那麼起勁。

除了在36Kr、獵雲網嘗試了廣告之後,我們其實也試了一下紅包這個效果,這個當時也是花了差不多一萬塊錢。因為我們覺得我們這個產品是2B的,針對企業領導的。於是,我們針對他們來進行紅包發放,發放之後我們看右側這個效果圖,訪問紅包月的人有兩千到人。

我們花了一萬塊錢差不多嘗試,我們相信肯定是花出去了,這還是因為有認識的人有熟人,然後可以這麼去做了一下。

但是,我們看它真正去申請試用的只有1.63%,比我們前面看的差很多,這裡面當然有一個原因,是我們這個頁面很長,真正申請試用在很下面,許多人看只是一個瀏覽頁面然後就直接關了。

還有一部分原因大家可能就是領了一個紅包,就沒有特別興趣去關注你的產品是怎麼樣的。這樣其實我們花了一萬塊錢,最終產生了8個真正試用的,這個其實成本還是有點高的,總體轉化率0.36%,比前面知乎、36Kr要差很多。這種形式可能對其他產品就很有效,但是對我們這個產品來說,因為我們這是一個相對來說目標比較明確並且比較小眾一點的產品,所以這個投放的效果可能就沒那麼明顯。

【流失用戶召回】

在今年元旦的時候,因為之前申請試用我們那個產品已經有很多人,但是這裡面有一半人我們給他發了帳號他也並沒有回來,我們過年給大家拜拜年,然後去彙報一下進展看能不能把他們撈過來一部分。

這是元旦的時候我們產品的整體用戶情況,到了元旦為止,9月25號發布差不多兩三個月時間,那個時候差不多有1490個人申請試用了我們這個產品。但是,真正試用的有724個,差不多有一半,另外一半就跑了,就流失了。

我們就想把這部分人抽出來給他們進行一個召回活動,這裡面流失用戶我們就可以把列表導出來,這是我們自己的產品就有這樣的功能。有人可能疑惑我們怎麼拿到用戶的這些信息呢?

這很容易,因為我們申請試用的時候就讓他填一下姓名、聯繫方式,還有他的公司這些信息。對於填郵箱的我們就給發郵件的,對於發手機號的我們就給他發簡訊,我們分析這兩種渠道帶來的效果。

先說總體,總體我們發了716個人,這裡面比前面少了一點,我把一些不靠譜的這些信息人工給它幹掉了。接下來,看看真正有35個人去體驗了這個產品,然後35個人裡面有4個人申請接入數據。

因為我們在產品上面做了一個小的改進,在測試環境上面,對於那些測試環境本身是一些數據他玩一玩,玩了可能感興趣之後就會試一下自己的真實數據。這個時候,我們上來有一個鏈接引導他們去申請接入自己的數據,走到這一步之後就更可能轉化成我們的正式客戶。

這兩種方式轉化效果我們其實也很關心,召回的效果怎麼樣,我們看下面用紅框表示出來,郵件發了394封。最終有32個人真正過來試用了,電話手機號322封,跟郵件差不多,但只有3個過來,也就是說兩種效果差了8倍。

這其實也提醒大家,簡訊這種方式可能許多人看簡訊的比較少。當然,另一方面跟我們自己產品特徵有關係,我們這個產品是一個PC上用起來更方便的一個產品。許多人可能在手機上看到這個鏈接也不方便點開,點開之後輸入帳號也麻煩一點。所以,導致這個效果比較差。

文中截圖來自神策分析(Sensors Analytics):http://sensorsdata.cn/。

(完)


我覺得,驅動運營的是預設的商業模型,數據只是量化的一環,定性後精確獲取利益的保證,對預設模型的校正,對市場趨勢的把握。數據本身只是反映了當前市場環境下商業模型的狀態罷了,數據被看得太重了。


互聯網公司運營崗位籠統的分為活動運營,用戶運營,產品運營。不同公司會根據具體職位再進行細分 ,還可以再分為新媒體運營,活動運營,數據運營 ,商家運營,品類運營,遊戲運營,網路推廣,網店運營,海外運營,內容編輯,文案策劃等等。

關於運營不同的人會給出不同的解釋,在我看來,運營的目的是為了更好地實現業務價值與用戶需求的統一,讓產品活的更好,活得更久。與之相對應,大部分運營工作的三個指標就是:拉新,留存,促活(促轉化)。即以最低的預算,尋找最優的路徑,採取最有效的方式,更高效地為產品帶來新用戶或流量,讓用戶留下來真正去使用,延長用戶停留時長或促進活躍用戶向付費用戶轉化。

不同的公司業務訴求不同,運營的重心也會有差別,資訊類產品運營的重心主要是提高用戶停留時長,以便讓信息流廣告得到更多的曝光,從而獲取更多的收益。互聯網消費金融側重於增加消費貸款人員數量和消費額度以及降低壞賬率,運營工作的考核標準和資訊類產品有很大不同。同樣的,社交類產品的運營重心根據不同社交產品的定位也會有更加精細的劃分。無論是哪種方式的運營,目的都是為了更好地在不傷害用戶的前提下實現業務價值最大化。

產品運營是運營的一大分支,在運營工作中佔有很大的比重,產品運營的工作主要是對產品和市場數據進行分析,並以此為依據推進產品改進,使一個產品越來越好、越來越有活力。產品運營人員需要始終保持敏銳的用戶感覺。那麼產品運營應該如何開展呢?如何利用數據來驅動產品運營?

根據產品的不同階段,來給大家講解一下我進行產品數據化運營的一些思路和一些常用的工具。

一、產品初級階段:關注核心訴求點

初級階段的產品形態比較單一,往往只實現了一個功能且有可能還不是核心功能,例如春雨醫生,春雨醫生想做的是醫生線上答疑,但在他們在前面那幾個版本的時候並沒有上線答疑這個功能,而是以網上挂號這個功能作為切入點。這和他們的產品特性有很大的關係, 上線答疑功能的前提是平台要有足夠的能夠回答用戶問題的醫生,而產品上線初期春雨醫生不具備這個條件,於是就轉而先做了網上挂號這個功能。

產品運營初期階段,產品需要進行市場驗證,這時產品需要關注的點比較單一,主要是用戶體驗方面, 這個階段可供分析的數據比較少但也並不是無章可循。進行數據運營之前,我們首先把用戶體驗這個詞具象化,以便明確可供進行運營的數據。

用戶體驗可以簡單看做是用戶使用產品時產生的感受,以工具類產品為例,用戶使用工具類產品主要是為了滿足自己的任務需求,涉及用戶體驗的主要和任務完成度有關,根據任務完成度大致可分為:產品反應時長,用戶停留時長,完成任務需要的步驟,任務最終完成度。用戶使用工具類產品主要是為了節約自己的時間,更高效的完成任務。這時候就需要產品能快速反應,如果產品反應過慢的話會造成用戶流失,用戶如果停留的時間過長,說明用戶在產品內沒有得到更好的滿足,完成任務的步驟過於繁瑣的話也會造成用戶流失,最終任務是否完成是產品成敗的決定因素,如果用戶的需求最終沒有得到滿足,過程再流暢,界面再精美也會被用戶捨棄。

這樣分析之後我們就可以確定進行數據分析的方向:用戶停留時長,任務所需的步驟以及每個步驟的轉化率。這些數據都被記錄在伺服器日誌上面,我們可以把這些數據用excel記錄下來並基於此建立漏斗模型,如圖:

觀察轉化漏斗以及數據分析表我們可以得出與之相對應的運營策略,通常的方式是產品側削減任務所需流程,對用戶進行產品使用提示,建立糾錯機制,輸入錯誤後可在當前界面重新輸入而不必回到初始頁,對用戶常見問題提供直接選擇項等等。

簡單來講,產品運營初級階段數據運營的作用就是幫助運營人員進行產品市場驗證,給出產品運營的方向促進產品優化改進。

二、產品中期階段:關注最優路徑

產品運營的中級階段,產品的功能越來越完善,產品進入相對穩定的迭代周期,用戶群體也相對穩定。如果說產品運營的初級階段是粗放式運營的話,這時候就涉及到產品的精細化運營。產品中期階段產品的功能基本已經完善,這時候主要目標是擴大用戶數量,提高用戶使用人數和使用頻次,此時所產生的產品需求主要是外部需求以及為滿足不同類型用戶而需要接入的新需求。

產品生命周期的每個階段都有對應的任務,中期階段我們需要重點關注最優路徑,即提高用戶註冊的最優路徑,敏捷開發的最優路徑。移動互聯網時代流量成本越來越高,獲取新用戶也越來越難。產品運營人員最應該做的有兩個方面,外部:觀察每個投放路徑的投入產出比,尋找到性價比最高的轉化路徑進行投放;內部:了解各個產品形態,明確已開發產品是否可以復用,產品邏輯是否能運用在同一產品的不同方面,以便在接入新需求時能低成本快速滿足新需求。

在產品中期階段,需要持續根據用戶反饋來做產品修正,這時用戶反饋了大量的需求,在大量需求面前,需要通過統計數據來進行對比篩選分析以便將用戶的需求劃分開,我們只需要重點關注用戶對於我們的核心的需求,尋找最優的路徑來滿足這些需求。在數據的分析方面我們可以藉助伺服器日誌或者JavaScript日誌,伺服器日誌的時效性較差,如果想要了解用戶的實時行為可以藉助JavaScript日誌,分析數據的幾個方面和產品此階段的訴求有關。

以數據來驅動產品並不是為了分析數據而分析,重要的是找到和產品有關聯的數據,明確產品優化的方向並利用數據評估產品運營的成果,數據的作用也不應該被過度誇大,不要用單一數據去評價全局,不要誇大偶然事件的作用,避免用結論來推導原因,最終要的是避免唯數據論。

三、產品的中後期:尋找最有效的方式

此階段的用戶增長速度相對放緩,產品已經具有相對穩定和龐大的用戶群體,大部分公司會在這個階段進行商業變現,這時候產品運營人員要了解產品目標也就是公司的業務價值,選擇最有效的方式,在不傷害用戶體驗的前提下依靠產品去實現商業價值。

這個階段主要涉及產品精細化運營,在該階段我們則需要通過對用戶進行個性化運營讓用戶在產品中有五星級的感受。以資訊類產品為例,此階段,在產品側,我們則可以通過對用戶在產品內行為的統計、分析來為運營做出數據上的支持,通過這些數據我們可以講我們的內容按照用戶的喜好推送給用戶讓每個人感受到的內容其實都是根據自己喜好來推送,而不是常規的內容推薦。同時,也可以根據用戶在app內長尾頻道的行為表現展開更深度的運營。

產品運營中後期主要涉及精細化運營,可以利用伺服器日誌和JavaScript日誌來進行數據分析,這兩種數據記錄工具各有利弊,最好的方式就是把兩者結合起來,為產品精細化運營提供更多的支持。

最後,以數據來驅動產品運營只是產品運營一個較為合理的方式,數據是客觀的,但是,解讀數據的人是主觀的只有正確的認識數據,才能正確的利用數據,在做數據分析時,要跳出數據看數據,對待數據我們必須要有一個求證的心態,並時刻銘記數據分析的目的和意義,最大程度上保證所採用的數據能為產品提供正確的方向指導。


BI的數據驅動指的是OLAP, 是相對於普通報表而言的,由於其上鑽下鑽較自由的多維分析特性,很好地配合了由數據驅動的分析,通俗點兒說就是你看到數據顯示五月有問題,只需要在五月是點一下就可以進一步查看五月的每一天的數據,看著有問題那幾天的數據,你開始懷疑跟那幾天的促銷或天氣有關,便可以方便的把促銷和天氣兩個維度拉進來。。還有一種說法是通過數據分析反過來優化運營的流程。


數據回收和分析在運營工作中是必不可少的一個步驟,一個會和數據打交道的運營,做事才會 有依據,營銷也才會越做越好。

反觀如果一個運營不懂數據,那做每件事幾乎都靠蒙,最後只會越做越迷茫,越不知道自己的下一步應該怎麼走。

下面列舉,數據分析在5個方面對運營工作的指導作用。

PS:如果你運營的是一個網站小編建議使用Google Analytics這個工具,因為使用Google的產品需要翻牆,小編為你準備了翻牆工具,關注訂閱號文案狗日記回復「翻牆」就可獲得翻牆工具下載地址。

1.數據能夠告訴你用戶更喜歡什麼樣的營銷內容

假如我要通過微博為下面款帆布鞋做一次推廣,目標是讓用戶來到你的網站買傘。那麼我針對這款帆布鞋的同一賣點製作了兩條微博,並附上監測鏈接進行投放。

那麼假定測試周期為一天,一天後可以在Google Analytics後台,看到有多少流量通過微博內容訪問了網站、跳出率多高、平均會話時長及每次會話瀏覽頁數等數據進行綜合評估。(如下圖)

從會話數多少可以直接看出,製作的哪條微博用戶更喜歡。

看完會話數可以再看跳出率,假如通過某一微博來的訪問量高跳出率也高,那麼可能你的著陸頁做得不好,或者著陸頁與你的宣傳內容不相關,引來了不相關的用戶所以跳出率高。那麼你就要優化著陸頁或者營銷內容。

還可以看瀏覽頁數和會話時長,這兩個指標的數據越高,可能代表著這條微博引來的用戶對你的網站越感興趣,那麼就可以加大力度投放這條微博。

做完以上的數據分析,你大概就可以知道哪條微博內容是用戶喜歡的,當然要根據你的業務具體問題具體分析。

2.發現哪個宣傳渠道能為網站帶來高質量流量

在針對產品的一個賣點製作出一條營銷內容後,同樣附上監測鏈接,分別將他們投入到多個營銷渠道,一個周期後回收數據,看看哪個渠道的引流能力更強,哪個渠道的引來的流量質量最高。找出引流能力和引流質量綜合性較高的渠道,深挖這個渠道獲取更多高質量流量。

上圖中,第二個渠道的引流能力雖然比第一個渠道的引流能力強,但是從跳出率、瀏覽網頁數及平均停留時長,都不及第一一個渠道。那麼證明第一個渠道可以深耕細作,挖掘更多的有效流量。

第二個渠道跳出率高達78.42%,需要根據具體業務具體分析:

一是著陸頁寫的不夠清楚,不能讓用戶第一眼看出這個網頁哪裡可以幫到我,一個用戶給著陸頁的時間只有3秒,3秒內如果不能說清楚【什麼產品】【為誰】【解決什麼問題】,用戶就會選擇關閉網站,繼續尋找能幫助他解決問題的方法。

二是營銷內容和著陸頁無關,導致用戶來了找不到營銷內容里說的東西。

3.看出被轉化的用戶都喜歡走什麼樣的路徑

數據可以看出達到你設定目標的用戶都喜歡走什麼路徑,用戶最喜歡走的路徑,我們需要重點去優化。提高用戶最喜歡去的網站頁面的體驗。

上圖是用戶在你網站上的行為流,紅框中是設定用戶要達到的頁面,用戶達到頁面即視為完成了我設定的目標,紅框的左邊可以看出達到目標頁面的最多的用戶,都是從哪個頁面流動到哪個頁面最終到達你設定的目標頁。

紅框的右邊可以看出,達到目標頁後的用戶,還喜歡到哪些頁面去,他們都在你的網站上幹了什麼,優化用戶經常去的頁面增加信任度。

從用戶行為流中找出用戶最喜歡走的路徑,優化這些路徑上每個頁面的文案、指引等,同時把用戶從來不看的頁面在單個網頁上往後挪,甚至幹掉用戶從來不去的頁面,減少分散用戶注意力的因素。

4.清楚地知道用戶都喜歡搜索什麼關鍵詞來到你的網站

在今天用戶通過搜索關鍵詞來到你網站,已經是一個很常規的行為,如果用戶搜索的關鍵詞和你網站內容相關,那用戶就會多看你的網站幾眼,用戶搜索的關鍵詞分為付費關鍵詞和自然關鍵詞。

從上圖數據列表中可以看出,哪些關鍵詞引流最給力,哪些關鍵詞帶來的轉化率最高。如果你的業務需要用到百度SEM,那麼你再也不會因為要購買什麼關鍵詞而煩惱。

找出用戶搜索來到你網站最多的關鍵詞,到各大搜索引擎中,看看搜索結果的第一頁是否有對你網站正面的評價或者負面的評價,正面的評價我們應該讓它盡量靠前,負面的評價是否應該嘗試如何去掉它,讓用戶搜索時增加對你網站的信任度。

5.數據能告訴你投放廣告時應該選擇哪些維度

在你製作好營銷內容要投放網盟類、競價排名類廣告時,會給我們一些維度選擇(如下圖)

這是微博粉絲通,投放的廣告計劃,計劃中會有很多的維度讓我們選定,數據能告訴我們這些維度應該如何選定。(下面為數據為你提供的年齡、性別、興趣、地理位置、使用什麼設備登陸網站的截圖)

年齡

性別

興趣

地理位置

訪問設備

從數據中能夠知道,如何設置我的廣告計劃,在廣告計劃中框選的維度越準確,帶來的流量越精準轉化也就高,意味著你花對了錢。

最後如果你需要翻牆軟體,請關注文案狗日記回復「翻牆」就可獲得翻牆工具下載地址。

http://weixin.qq.com/r/WznJ0VfE2wqkrROy92xJ (二維碼自動識別)


很多團隊在做產品的時候並沒有很好的數據支撐,無異於瞎子走路,那麼究竟哪些情況是屬於閉著眼睛做應用呢?

1、沒有跟蹤監測功能模塊的訪問情況

跟蹤監測的意義主要如下:

? 模塊的訪問記錄——對比新老用戶的訪問比,如果新用戶的訪問佔比遠遠大於老用戶的訪問佔比,那這個功能就是個雞肋,因為基本上只有新用戶在訪問。(註冊等新用戶特性模塊除外)

? 模塊的留存情況——我們知道一般情況下所謂的留存都是指用戶有沒有在一段時間後(天,周,月)持續的打開應用,而留存本身的意義也在於觀察一段時間內用戶的持續訪問情況,但對於應用留存的觀察,「打開應用」遠遠不及使用產品的核心功能,例如電商應用需要關注用戶持續使用的是瀏覽商品、加入購物車或下訂單功能等;對於圖片社區,可能關注的就是用戶瀏覽圖片或者上傳圖片;而對一個社交應用來說可能關注的就是用戶有沒有持續的互動。

? 排序和模塊展示的位置優化——在屏幕上的每一個位置都有不一樣的轉化率,所以如果很多可能吸引用戶的功能放在不好的位置,也會導致用戶流失。但目前對於很多模塊的展示位置,或者類似於某塊內容的分類排序,一般基於產品經理的原型設計或者運營編輯的經驗判斷。因此在產品發布之後,我們需要關注的是這些模塊或者分類的持續訪問情況,然後根據用戶訪問數據去優化排序,留存高的模塊當然要放在好的位置,留存低的就要持續優化了。

2、沒有統計流程轉化

上面所述的這點,關注的更多是持續訪問的意義,也就是產品功能的長期價值。在產品使用過程中,有很多流程性的操作,比如:

「閱讀」——「分享」

「註冊」——「填寫資料」——「註冊成功」

「瀏覽商品」——「加入購物車」——「下訂單」

每一步操作背後都隱含著用戶的交互,所以交互設計不合理、操作繁瑣或隱蔽、產品有bug、性能不好都會造成用戶的流失。那麼,你們有沒有思考過產品應用中有哪些不同的使用流程,並就這些流程的轉化情況給予關注?

3、忽略流失人群分布

在上述兩點描述里都提到了流失,而恰恰流失人群的分析是尤為重要的;尤其是當用戶沒有按照設想的路徑進行操作時,他們到底做了什麼,對於這些你們有過數據分析嗎?

數據分析一直都是很重要的一環,但是對於數據分析的過程很多人都心存疑惑,可能會有以下幾種情況:

1. 需要埋點的地方太多,造成產品發布delay,因此埋點成為開發和產品團隊頭疼的一件事。

2. 記錄的數據太多,不知道從何下手,如何進行分析,該分析什麼?最後甚至徹底不會去分析了。

3. 覺得自己產品還小沒有分析的必要,等產品做大一些再分析。

毋庸置疑,以上是最常見的三種心態,但是數據分析是產品的一部分,不能完全依靠直覺和猜測去設計產品。每一次發布都是一次考試,我們也需要用數據去檢測自己當初的設計,那麼對於以上三點而言:

第一點的問題是把數據分析變成了一項比較大的工作。一款應用需要記錄和跟蹤的信息當然很多,但不意味著需要從一開始就把所有的信息記錄下來,產品本身也是在迭代的,所以埋點和數據分析也可以迭代去記錄。在產品迭代周期過程中,少則一周、多則一月的時間裡,我們也沒有能力去分析太多的東西。

第二點的問題是沒有分析目的的去記錄信息,數據分析一定要有目的,所以你記錄的信息也一定是要完成對這個目的跟蹤的覆蓋,不需要太多,但一定要滿足至少一種分析的需求。比如上面所說的閉著眼睛做產品背後的問題都可以成為分析需求。

第三點的問題是沒有意識到流失用戶的價值。用戶很難給你二次機會,現有資源下,我們很容易做到用戶覆蓋,但是如果整個產品的體驗很差,或者需求目的不明確同樣很容易造成用戶的流失,所以每一次用戶流失的原因都彌足珍貴,都是產品優化方向的基礎,舉個例子,假如你是個視頻製作的軟體,產品發布之後,你看到產品的次日留存是50%,誤以為很好,但是發現用戶製作視頻的周留存率只有10%,你敢大推嗎?而沒有這部分業務數據的分析,很容易在大推過程中喪失了大量的價值用戶。而這些數據顯然在一開始損失最小的時候能夠幫助你對應用做更優的決策和迭代計劃。

數據分析和產品結合

那麼數據分析到底該怎樣和產品結合呢?其實等同於精益創業打磨一個最小化產品,然後利用數據衡量再規模推廣一樣,數據分析也是這樣一個過程。我們需要一開始選取一部分的用戶流量去測試我們的產品,當數據還行的時候,再應用到全市場,看看下面這個圖:

之前提過,我們進行數據分析時,也是以目的驅動的,所以在一個產品迭代過程中,不管是計划去優化一個不良設計還是發布一個新功能,都是一個想法的初始;然後接下來我們要構建這樣一個feature,應用到產品設計;然後記錄一些數據去跟蹤這樣一個feature,接下來發布產品;然後我們利用數據去衡量我們的設計,然後通過數據觀察用戶的反饋和行為,再不斷學習優化這個feature的設計。就這樣持續性的去完成數據對產品的決策以及優化。

談到如何進行數據決策,從數據驅動這部分,確定的邏輯是:確立目標,找到分析模型,然後利用分析方法進行分析,最後隨著迭代的過程周而復始。

數據指標

談起數據指標,相信大家不陌生的是「PV」、「DAU」、「留存」、「下載量」等常見指標,這些指標在流量概念上一定程度的反映了產品熱度,但這並不能證明產品的好壞。比如說:

「下載量」是單調遞增的,也不知道下載後是否激活或者是否卸載;

「PV」反映的是瀏覽量,可能是同一個用戶訪問很多次,也可能是投訴頁面訪問很多次;而對於類似知乎或者medium這樣的閱讀應用可能關注的是閱讀的時長而非PV;

「留存」是反映用戶在一段時間內的持續訪問情況,並且這個訪問只是簡單的打開應用或者打開網頁;但對產品而言,可能更應該關注的是用戶有沒有進行核心行為,例如對於知乎而言,應該關注的是用戶有沒有持續去閱讀,對於京東而言,可能需要關注的是用戶有沒有去持續下訂單或者支付,對於小影而言可能關注的是用戶有沒有持續去製作視頻或者觀看視頻;

「DAU」反映的是每日活躍,但並不能反應是由哪個功能模塊帶來的用戶活躍,更別說這個用戶是幾日活躍?

類似於這些指標的還有「平均訪問時長」等。

這些指標的意義在於你從粗略的方面上了解了產品的發展情況,但是如果深入到決策優化產品層面的時候,它們就是我們所說的「虛榮指標」

如果說我們熟知的這些指標都是虛榮指標的話,究竟哪些才算是有價值的數據指標呢?

首先有價值的數據指標包含以下幾個特點中的幾個:

1. 比率

2. 具有可比較性

3. 容易推導

4. 產品業務相關,具有價值引導

以電商為例,以下的指標就是價值指標:1. 購買轉化率2. 月均購買率3. 平均每單成交額4. 棄買率5. 客戶獲取成本/平均每客戶營收6. 熱門搜索詞7. 推薦購買率

仔細看一下以上的指標,大多都與業務相關,而不是千篇一律、家家適用的「DAU」等虛榮指標。比如熱門搜索詞雖然不是比率,但至少能反映用戶想要什麼,具有一定的價值引導。

再參考Facebook在爆發增長時提出的「AHA!Moment」(驚訝時刻),當新用戶在7天內獲得10個好友會更容易留存;Twitter的「AHA!Moment」是獲得30個關注。這些指標都與業務相關。

所以我們舉一反三,類比到社交應用、內容應用,很容易參考到一些與自己業務相關的指標。不管是做什麼類型的應用一定要有自己的核心事件,比如說知乎關心的是閱讀或者關注相關的指標;nice關注的是上傳圖片、標籤、關注相關的指標。

所以我們要從產品角度去優化,那麼請落地到你的業務,找出相關性的指標。

分析模型

關於AARRR模型,可以參考之前我寫過的《初創團隊的精細化分析和Growth Hacking》,其中有對流量時代到用戶模型分析的過渡及詳解,而且還有一些矽谷公司的案例。

在我們確定好數據指標後,下一步必定是按照一定的思路進行分析,細想我們產品的用戶,其實也就是從「獲取→活躍→留存→傳播→收入」的核心步驟,所以我們就從如何能夠卡住這樣的用戶周期開始分析,然後思考如何去做?

這裡有一個思路,主要包含兩步:

首先,從模塊訪問級別掌握用戶在功能模塊間的流向。一個產品可能有很多功能模塊,但是核心功能模塊一定只有一兩個。隨著用戶從不同來源渠道來到應用後,到訪問核心功能模塊,再到持續留存,並在這個過程中進行分享等操作,利用漏斗分析,就能找到轉化率較低的模塊,或者路徑。

然後,通過定位到模塊之後,再細緻的跟蹤分析模塊內的問題。比如對於視頻製作應用,當發現視頻製作模塊轉化率低,可能要關注的是視頻製作過程中添加素材的步驟,交互體驗等;或者發現應用的分享率比較低,那麼就要分析分享的刺激是不是不夠強、分享的過程是不是流暢、分享的途徑是不是不夠多等問題。

其實這種分析步驟的出發點是,我們需要改變過去過於重視「分析」的思路,而是要和產品的迭代結合一起。結合產品迭代的周期,將數據分析也迭代化,不是一次性收集所有的數據,而是定位問題,拆解的去解決一個個的問題。

分析方法

1、漏斗轉化

2、自定義留存

3、人群細分

4、同期性分析

5、A/B測試或者多變數測試

精益周期

了解分析方法之後,我也總結了一個分析的周期:

最後,「創業公司是一種組織,其存在的目的就是尋找可規模化和可重複化的商業模式」。「尋找」其實就是探索和解決問題的過程。我們需要更多的利用數據去梳理邏輯;去縮小我們憑空猜測的過程;去發現、定位問題;再試圖解決這些問題。

本文作者:諸葛ioCTO孔淼

首發於創新工場微信公眾號(chuangxin2009)。


上面各位都寫的比較系統化了,這裡簡單講個真實小故事:

小王是某著名視頻網站的運營人員,平時主要負責該視頻網站電視端的某專題內容策劃並根據寒暑假等策劃相關活動。因為特別喜愛視頻策劃,她曽立志將自己負責的專題做到行業第一,然後跳槽、加薪、包養帥哥、走上人生巔峰。

但是,由於現實工作中的諸多問題,小王離這個夢想越來越遠。終於在一個夜晚,她拉著小數說:「親,我可能要裸辭了,你會養我的,對嗎?」

小數作為一枚典型月光族嚇得汗毛都豎起來了,為了不讓她裸辭,馬上化身知心姐姐,對她的工作煩惱進行360度的了解及安慰!

小王的工作內容

1、每天為視頻專題策劃對應的內容;

2、根據數據優化專題內容,提高CV(播放量)、VV(點擊)和UV(播放用戶)等關鍵指標;

3、配合產品完善專題功能板塊。

日常打交道的同事

1、部門數據分析師,每個視頻、每個板塊的數據都需要從數據分析師那裡拿;

2、產品經理:共同協商專題的升級改版事宜;

3、其他:視頻供應商、設計人員等。

憤怒的來源

其實小王作為一枚脾氣好又善良的軟妹子,很少與人有爭執,而她現在所有的煩惱幾乎都來源於工作中的問題:

1、小王每天都有數據需求,但是數據分析師那邊給數據的時間卻不固定,因為他們要應對很多人的數據需求,像大領導的或特別著急的數據需求肯定優先順序就高。

像小王這種業務人員每天什麼時候拿到數據,只能靠運氣,有時候實在著急了催幾遍也會給,但是數據分析師那邊往往臉色不好看,小王的心情也會變得不好,內心OS:NND,老娘欠你們的呀~

2、「數據分析師,不應該是分析嗎?天天就只能給我們導一堆表,還那麼磨嘰,把許可權給我,我也會好嗎?」小王氣憤的說「你知道嗎,小數,每次我們某個模塊的CV或者VV跌了,讓他們分析原因,從來都是含糊其辭,什麼就是那樣的啊,可能用戶不喜歡看呀。」

小王怒道:導數據不叫分析,不關注內容而直接臆想數據變動的原因也不叫分析,一切得過且過的理由都是耍流氓!

3、重複勞動多,工作沒激情。儘管一直吐槽數據分析師不給力,小王還是通過自己的經驗在每周的周報里對數據波動的原因給出自己的見解。不過每周從數據分析師那裡拿到excel表後,小王都需要經歷:在excel表裡作圖—複製到郵件或PPT—加上自己的文字見解—形成郵件或PPT報告,最後發送給領導的重複過程。

她覺得這些工作每周五都耗費自己大量的時間,用excel作圖太麻煩並且自己的見解由於沒有數據做支撐,往往得不到領導的重視,她覺得自己總是在做無用功,於職業發展無益。

4、產品改版基本看競爭對手。如果說上面的問題還可以通過勤快一些改進,到了專題改版的時候,產品的盲目模仿行為則讓小王徹底爆發了。

產品:我們最近做了一個新版本,你們運營部門看看,準備對物料的相關尺寸做修改。

小王:這個是根據其他競品家的功能做的改動嗎?但是我覺得我們現在的產品體驗要比他們都好,為什麼非要效仿他們呢?

產品:我們認為其他家都改成那樣肯定是有道理的,而且領導也通過了這次的版本,你們到時候準備物料就行了,其他的不用操心。

小王:那你們改了之後會與現有的版本做A/B測試嗎?

產品:說句實話,理論上應該有,但是咱公司的情況你也知道,能不能最後落實就不一定了,先上吧,你也別想太多了。

日常的運營已經讓小王心焦,產品沒有任何數據支撐的改版,則成了讓小王爆發的導火索。「這樣下去,我感覺自己要廢了,這塊產品本來就應該根據運營數據一起做改版,他們這種工作方式,太不尊重用戶、太不尊重我們了,我都不知道我離開後怎麼寫這部分工作的簡歷……」

對於她的煩惱,小數感到既容易又困難。

容易的是:DataHunter完全可以解決她的所有問題!

1、數據許可權分配。管理員可以分配給不同業務部門人員以不同的數據查看和使用許可權。像小王這樣的運營人員可以直接登錄查看並自助導出數據,再也不用苦苦等待數據分析師的「回眸」。

2、探索式分析。無論是數據分析師還是業務人員,都可以通過DataHunter的數據鑽取、聯動過濾等探索式分析的功能,對多種數據進行分析,快速定位數據波動原因。

比如針對某時間段自己負責的專題CV下降情況,小王認為有可能跟暑期這個時間段有關,因為在暑期,電視遙控器基本掌握在孩子的手裡,所以在電視大屏總流量沒有太大波動的情況下,如果自己負責的專題頻道以及其他頻道都有不同程度的下降,但是動漫專題的數據量猛增的話,則可以解釋這一問題。

她將自己的想法提給數據分析師,數據分析師則可以結合暑期內各專題數據量的變動、歷年暑期各專題的數據和已有的用戶數據,對其進行綜合的分析,最終確定數據波動是否是因為特殊假日導致。

3、快速生成圖表,一鍵分享報告。至於每周五用excel作圖再貼成報告的問題,DataHunter本身就支持拖拽作圖,簡單方便,與excel作圖相比,小王同學可以節省90%以上的時間!

圖表製作完成以後,小王也不必再將它們貼到PPT或郵件裡面。在圖表的基礎上,她可以進行文字批註,然後將此數據報告一鍵分享給相關同事。同事收到後又可以在這個報告基礎上添加自己的想法,大家一起討論問題。

這就形成了分享、溝通、討論的閉環,大大節省了互相發送報告的時間

4、讓產品數據與業務數據碰撞出火花。市面上很多數據分析產品要麼專註於產品端的數據,比如監測網站的轉化漏斗、點擊熱力圖、A/B 測試等,要麼是偏業務的類數據工具整合,比如CRM、銷售數據、財務數據等。

DataHunter支持將這兩大類數據打通,並引入互聯網數據等公共數據,遇到諸如專題改版這樣問題,產品經理可以將產品數據、競品數據以及外來的公共數據都關聯起來分析,對某個功能的加入或刪減作反覆論證,實現有理有據的改版!

而以上這些僅僅是DataHunter一部分標配功能好嗎?!小王看完我們的產品演示後興奮地表示:這就是她想要的產品!並且威逼利誘小數將自己的賬號借給她試用~

但是小王的問題又很難解決,為什麼呢?

她自己能通過使用DataHunter提高工作效率,起碼作圖這塊可以節省很多的時間。但是數據獲取呢?協同數據報告呢?

顯然,如果想解決所有煩惱,她所在的公司必須先去做基礎設施建設,把各業務系統數據打通,通過引進DataHunter這樣的平台去做數據許可權的分配,然後才能支持員工做精細化的數據運營。這些行為的前提是公司有意識有預算來在這塊做投入!

對於數據驅動業務的經營模式,每個企業會根據自身的實際情況做分析判斷,是否有必要做?需要投入多少精力做?預計性價比如何?這類問題都是CIO們的工作內容,小數在這裡不再贅述。

最後聽了上面的解釋,小王表示心裡有底了,到底她最後有沒有辭職,你猜?


用戶使用路徑都全部會梳理出來,然後就會按照AARRR這個模型去建立起來產品的數據監測節點和工作流程,去持續尋找我們優化的機會在哪裡,以及某一個環節這個階段是否值得優化,這些都會持續去思考


【互聯網思維】 互交參與 個性化 創新 數據驅動運營(用戶習慣)


數據驅動運營我現在的理解的是從定性到定量的工作方法的轉變,拿工作的實例來說,剛開始做BD拓展和維護這些客戶的時候對於企業HR是每個都通幾次電話,後來隨著客戶增多,工作量加大,發現效率並沒有太大的提高。這個時候就開始HR的行為數據和相關的其他數據,去預測哪些HR是可以不用花費特別大的精力維護的,在哪一步維護比較好。再後來通過產品使用轉化漏斗分析去發現那個步驟有問題,再去分析原因,再去根據原因調取數據,卻決定提高這個轉化率的投入產出比。


推薦閱讀:

什麼樣的產品才算一個好的產品?
什麼是產品經理,產品經理與產品運營有什麼區別?
對一個互聯網產品做數據分析包含了對哪些數據進行分析?
APP推廣被刷量之後,公司損失的是什麼?
如何做互聯網產品分析?

TAG:產品運營 | 數據挖掘 | 數據分析 | 運營 | 互聯網社區運營 |