如何構建誠實的界面並幫助用戶做出更好的決策(譯文)

如何構建誠實的界面並幫助用戶做出更好的決策(譯文)

來自專欄 蝙蝠小玩子的設計思考

2017年的第一天,新年快樂!回首2016,從新聞App,社交平台,到電商平台越來越多的產品都在打造千人千面的個性化信息推薦。在網上你所做的每一個決定,微小點擊,甚至是頁面停留時長都會影響到下次你將看到的內容。從去年開始網購時總遇到這樣一個問題,不管是首屏banner,特色頻道還是下方猜你喜歡模塊總是不斷出現我購買或查看過得商品或同類型商品。在主動搜索中,我查看,收藏過的商品或品牌內容也通常出現在前面幾頁,從一開始覺得非常貼心到覺得發現新產品變得越來越困難。記得之前聽到朋友吐槽,每次在買完一個東西後,又在該購物平台有看到更好看更便宜的推薦了時就很不開心,既然如此為什麼購買之前沒有出現呢? 既然我已經買了,誰說最近就還需要一樣的東西呢?另一種情況則更加惱人,當習慣了不斷看到與自己的查看歷史相關的商品後,有時也會看到自己從來沒有關注過且不打算查看的東西,就像有些不地道的新聞在首頁或是通過消息推送出的不靠譜甚至博眼球的新聞推薦一樣,有些直接出現在應用首頁的商品顯得突兀且令人不悅。

最近張小龍在小程序發布會上談到了對機器推薦和個人社交推薦差異的問題,他談到微信朋友圈的內容更多是依賴於社交推薦的,聯繫人起到了推薦器的作用,如果系統來做可能沒有自己的朋友們做得好,因為系統不會給你推薦一些你沒有接觸過的東西,系統只會強化你接觸過的信息,並且不斷地去學習你的歷史,往你的歷史方面繼續推薦,但是你的朋友可能在朋友圈裡面說,某一部電影很好看,那你會因為你的朋友去看了這部電影而去看這部電影,機器是無法理解這一點的,機器只會採集你過去看過的電影,然後把你看過電影的類型整理出來,認為你就喜歡這一類型的電影,但是你朋友推薦的電影可能是你完全沒有接觸過的電影形態,而微信讀書既有基於個人閱讀歷史的推薦也增加了你的朋友也在讀xx,就是結合了機器推薦與社交推薦的結果。

之前做項目的過程中,我們基於某用戶的學習內容,在社交角度上,把與其有共同學習內容或產出過高品質課程或文章內容的用戶(老師或學員)推薦給該用戶,繼而用戶又能在其擴充的社交關係中查看好友所學的內容,挖掘出更多自身所需學習內容的信息。但對於信息推薦和展示的度的把握仍然有很多疑慮,最近剛好看到這樣一篇文章,講述了機器基於用戶歷史數據進行學習和推薦,以減少用戶在海量信息中艱難做決策的問題,其中涉及到光明模式,黑暗模式的運用對商家本身和用戶的雙面影響,以及通過提高用戶自身的控制力和知情權以提升先行設計和預設推薦的信賴度的問題。下面就進入翻譯正文啦!

近年來,如Google Now,Spotify和亞馬遜等許多應用,基於用戶的個人數據對其偏好做出了假設。它們甚至可能在用戶沒有進行任何輸入時就使用收集到的信息來替我們做決定。例如,Facebook訂閱新聞feed和亞馬遜推薦產品隱藏了「無關緊要」的信息,只顯示他們認為用戶會喜歡的內容。

這種近期被創造出來的排除了用戶選擇的設計模式被稱為「先行設計」。其目的是利用收集到的用戶行為數據在界面上自動完成決策過程。它減少了人們目前面臨的過度決策數量,從而降低了疲勞感並從整體層面上提高決策效率。

儘管自動化決策帶來了好的一面,但它也暗藏著日漸提高的不信任問題——特別是當用戶界面上充斥著黑暗模式時信任更是被侵蝕了。暫時拋開欺騙用戶的黑暗與詭詐的模式不議,本文將著眼於分析如何利用「光明模式」,讓用戶對我們幫助他們做決定產生更多信心,確保用戶界面是誠實和透明的,即使是在推動用戶做出更利於商家利益的決策時也能保有信任。

為什麼替你的用戶做決定?

在今天的網路世界,消費者面臨比以往更多的選擇。例如,如果在像亞馬遜和eBay這樣的網站購物時。即使我們知道我們想要的東西(例如,蘋果耳機),仍然可以得到海量的選擇結果:

The overwhelming number of options for the exact same product on Amazon and eBay (Images: Amazon and eBay) (View large version)

另一個例子是音樂服務Spotify,它使得我們在指尖輕點的瞬間就能聽到大量的音樂,但卻無需支付更多額外成本。附加選擇迅速增加。

儘管有更多選擇很不錯,但過多的選擇則令人生畏,因為這時候要做出選擇會變得非常困難。該問題已經被廣泛強調了,尤其是在巴里Shwartz的選擇悖論和希克斯定律中:

巴里Shwartz的選擇悖論:有大量選擇使得人們趨向於不做任何選擇,即使做出了選擇也不那麼快樂。

希克斯定律:每一個額外選擇都會增加人們做出決定的時間。

這兩項研究表明,通過減少用戶界面上選擇的數量,可以幫助提升用戶做出決策的能力,從而減少挫折並帶來更好的體驗。《決策疲勞》一文也證明了該理論,文章指出如果人們在生活中要做出大量決策的話,那麼在面臨重要抉擇時決策效率會變得低下。這也是馬克·扎克伯格每天都穿相同風格的衣服的原因:

「我非常希望能清空我的生活,平時盡量做更少的決定,把更多精力花在為Facebook帶來最好的服務上。」

如何減少選擇

減少用戶面臨的選擇成為了如今很多App 的關注點。為解決該問題產品採用了很多方法,下面將討論其中2個:

使選擇的相關性更

許多產品基於個人偏好進行個性化處理,為當前用戶展示與之相關的有限選項。亞馬遜採用的這種做法非常有名,無論在網站上還是定製電子郵件中都基於收集到的用戶信息來展示數據:

Tailored recommendations by Amazon (Image: Amazon) (View large version)

預測決策

上述的推薦可能不足以降低選擇的難度,因為即使在篩選後,用戶依然會面對大量的選擇。此時產品可以更進一步,代替用戶決策以幫助他們徹底卸下選擇負擔。

比如Google Now在用戶未進行任何輸入前,就給出了越來越多的操作行動點。

Examples of anticipatory design in Google Now (Image: Google) (View large version)

谷歌Now在後台做出了很多決策,從發現用戶把車停在哪裡,到搜索足球成績,即使未收到提問,它也會在恰當的時間主動通知用戶關注可能需要的信息:

Google Now: 「What you need, before you ask.」

Spotify則以另一種假設的方式運用了該方法,他們在用戶進行任何思考前就為他們創建了播放列表。聲明中寫道:

這就像你最好的朋友每周為你定製一份個性化混搭風格的音樂。

Spotify Discover Weekly』s personlized playlists (Image: Spotify) (View large version)

至於要搜索新音樂,以及添加什麼音樂到播放列表則是由用戶決定的。

為用戶做選擇的概念被稱為「先行設計」,它是一個有爭議的話題,因為代表用戶做決定涉及到倫理道德問題。

為先行設計建立信任

使用上述方法達到減少選擇和並為用戶做決策的產品,會被指責在決定用戶期望內容時太過專橫冒昧。如果應用不按照用戶預期去運行可能會帶來不信任,尤其是在許多app被爆出使用黑暗模式欺騙用戶去做他們不想做的事情時更是如此。

因此,為了保持用戶信任,app為用戶做的決定越多,就越應該保持其透明度。可以通過避免某些「黑暗模式」,而是使用「光明模式」保證透明度,即使在使用預期設計時也讓用戶了解並掌握控制權。下面讓我們探索一些光模式吧。

避免限制信息

當選項經過過濾,只為用戶展現更多他們可能會喜歡的內容時(通過應用個性化和推薦系統)會帶來一個固有問題,那就是用戶會開始看到越來越多的相同類型的內容:

Amazon browsing history recommendations (Image: Amazon) (View large version)

這種情況使得發現新內容變得很棘手。這種情況不僅出現在亞馬遜這樣的電商網站上,同樣也出現在Facebook這樣的社交媒體網站上。時代周刊曾這樣報道過:

「Facebook給點擊鏈接的人提供更多鏈接,也給看視頻的人展示更多視頻。」

很多用戶對此可能並不高興,因為他們不希望由品牌來決定他們看到什麼。Stack Overflow的CEO Stack Overflow就責備Facebook隱藏了信息:

Facebook沒有展示所有帖子。它在選擇給你看什麼。這帶來了一個有趣的問題,Facebook演算法會在多大程度上強化你的偏見?因為它的演算法已經被訓練這麼做了。

給用戶控制權

通過反饋機制讓用戶進行一些控制是一種避免信息限制的方法,它更容易提高基於用戶偏好所做假設的準確度。

要達到從明顯的容易的到不那麼明顯的機制也有很多不同的方式:

Feedback mechanisms used by Google, Facebook and Amazon (View large version)

Google Now (左上圖)提示用戶直接控制自己的Now card來確定所顯示的信息基本符合其自身偏好。

Facebook(右上圖)則沒那麼明顯,用右上角的下拉符號進行設置,它在每個新聞條目的右上角使用了一個下拉符號,單擊該符號會顯示隱藏選項,讓用戶隱藏不想看的新聞。

亞馬遜(下圖)調整推薦內容的方式更難。用戶需要點擊導航「您的賬戶」→「您的建議」→「改善建議」來調整希望它展示的內容。

這三個例子中谷歌提供的反饋機制是最透明的,它給了用戶多個明顯的交互點,讓他們在卡片上進行反饋,確保一切盡在用戶掌控中:

Google Now: 「You』re in control.」 (Image: Google) (View large version)

除了輕掃卡片你也可以點擊菜單圖標對每張卡片進行定製化設置:

Customizing Google Now (Image: Google)

Joel Spolsky說到,就Facebook和亞馬遜而言,即使用戶可以提供反饋去影響他們所看到的內容,底層的新聞feed和推薦演算法依然擁有更大的控制權。

避免誤將廣告當做真正的內容

誤把廣告當做內容是常見的黑暗模式,它還會在未明確經過用戶同意時就被觸發。

比如,Google Now最近跟Lyft,Airbnb,Uber和Instacart進行了合作,通過提供這些App的服務促進用戶使用產品,這時候系統認為用戶需要這些服務。雖然第三方服務的卡片可能有用,但當他們是付費服務時,看起來也像是另一種形式的廣告了。

Google Now partner services (Image: Google) (View large version)

其他相關產品中也可以見到類似的黑暗設計,預期決策背後的動機變得更令人懷疑。谷歌地圖是一個很好的例子,它們在地圖搜索結果將廣告偽裝成定位針:

Google Maps disguises ads as pins (Image: The Next Web) (View large version)

利用已有的用戶輸入內容

為了預測用戶需求,預測的準確性非常重要。一種很好的方法是基於用戶以前的輸入進行嘗試和測試,如利用web瀏覽器的預填充特性,或通過記住信用卡詳情和密碼預測用戶未來的使用需求:

Google Chrome pre-populated forms

這樣會避免用戶進行同樣的操作以節省時間。在整合更多數據流之後同樣的原則可以被應用在更複雜的假設上。Campaign Live 突顯出這樣一個例子,計程車服務Hailo的「Now Card」結合時間,地理位置和用戶過往輸入的內容在Google Now當中再次預定計程車:

假設你來到倫敦並預定了一輛Hailo計程車,在7點到10點之間進去了某個特定區域。如果你下午5點還在那兒,那麼會假設下一步你可能要離開了,此時谷歌Now Card將提示您預定一輛計程車。

在這種情況下假設可能更準確(並且它的出現看起來更不像是一種變相的廣告),因為該報價是基於用戶之前通過相同的服務進行預訂時給出的結果,並且它是在一個合理的時間段出現的:

Hailo card prompts user based on related action (Image: Google)

讓用戶選擇退出

儘管能夠給出用戶個性化推薦,但有時人們仍然不希望應用程序為他們做決定。在這種情況下,必須能夠輕鬆退出。即使你現在不能刪除Google Now App,您可以在設置中禁用Now card:

Google Now lets users disable Now cards. (Image: Google)

相比之下,用戶沒有辦法關閉亞馬遜的建議機制,除非你完全退出——這對於亞馬遜是有意義的,因為35%的產品銷量來自推薦結果的導流(數據來源Venture Beat)。

是否應該默認選擇用這些方法記錄和使用用戶數據仍然是個問題。讓用戶主動選擇還是假定用戶是同意這麼做2者間存在很大區別,如「黑暗模式」中所示的器官捐贈者案例:

The difference between opt-in by choice and presumed consent

for organ donors

基本上,如果認擇捐贈是默認項時,幾乎100%的人會選擇進行器官捐贈,但當捐贈不是默認項時,願意捐贈器官的比例會變得非常低。

運用黑暗模式來幫助用戶

顯然公司使用黑暗模式來促推動自己的議事日程如今更加便捷,並且通過使用某些工具使得讓企業代表用戶做決策變得更簡單了。然而,如果有類似的方法可以幫助人們為自己做出更好的決定的話又會怎樣呢?目前,由於人類缺乏自我控制或關注短期收益等弱點導致很多人做出了糟糕的決定。

推動人們做出正確的選擇

在Richard Thaler and Cass Sunstein所著的《推動:提升人們對於健康,財富和幸福感的決定》一書中提到,應該創建一個倫理道德「選擇架構」,來推動人們著眼長期利益做出整體層面上的最佳選擇。

Nudge: Improving Decisions About Health, Wealth and Happiness (Image: Wikipedia)

在這個緊要關頭,那些我們用以創造黑暗模式的技術可能也可以被用來打造光明模式從而推動用戶做出更好的選擇。

自動登記

泰勒和桑斯坦解釋到例如由於人類預期壽命更高了,通過像美國的401(k)的養老金計劃為自己存養老金變得非常重要。然而,儘管這些計劃提供「免費的養老金」,但許多人仍然選擇不去存錢。泰勒和桑斯坦提出了以下可能的解決方案來幫助人們存養老金:

默認讓人們存養老金(類似於器官捐獻者的例子);迫使人們在是否存養老金這事兒上進行簡單的認同或是不讓他們自己做決定。

這些方法是使用光明模式的例子,因為它們有利於用戶,促使人們採取行動並做出長期有利的決策。儘管後者的方法迫使人們做出決定,它通過簡單的2選1方式簡化了決定過程,鼓勵人們參與其中。

創造良好的行為模式

艾倫?夏皮羅表明帶有預期選擇的應用可以鼓勵用戶行為模式。通過不斷建議去哪裡,買什麼,人們 因應用程序通知和被代表選擇而受到了限制。

這可能會帶來可怕的場景,比如當一個公司主要關注於銷售商品時,它會更傾向於不斷灌輸刺激用戶的購物慾,讓他們不斷使用自己的服務。例如亞馬遜新的Prime Pantry服務充滿了陰暗模式,從它的儲蓄盒開始就鼓勵人們購買超出原本預期更多的東西:

Amazon Pantry Box encourages purchasing habits

(Image: redefined mom) (View large version)

正如Circadia的產品主管Matt Crowley所說的:

亞馬遜已經將對話從「我需要這個嗎?」更改為「為了填滿這個箱子我還需要買什麼?」

亞馬遜甚至申請了一個系統專利,該系統利用用戶數據用戶實際下單前來就預測並交付了產品,亞馬遜稱其為預期運輸:

Amazon』s anticipatory shipping patent diagram (Image: Tech Crunch) (View large version)

把這些動機擱置一旁,如果可以採用相同的策略幫助人們形成良好的行為和習慣會怎樣呢? 如今這方面已經有很多例子了,出現了許多自我完善和習慣形成的應用程序。

例如,stickK通過使用「損失厭惡和責任心的心理力量來驅動行為變化」,從而幫助你擺脫壞習慣。

stickK helps you kick bad habits. (Image: stickK) (View large version)

Duolingo 提醒用戶每天練習新語言,從而幫助用戶形成一個好習慣。

Duolingo helps you form language-learning habits. (Image: upquire.com)

從以上內容我們可以知道,app背後公司的倫理決定了人們能夠從app的預期設計中獲得什麼好處。公司為了自身利益會在多大程度上利用客戶數據,以及用戶為了方便願意給出多少個人數據?

如上所述,給予用戶控制力和保持透明是保持信任的關鍵。 你對預期設計中使用的黑暗模式有什麼看法? 光明模式是否真的存在?在設計假設時是誰掌握了控制權?

原作者:Graeme Fulton

原文鏈接:How To Build Honest UIs And Help Users Make Better Decisions – Smashing Magazine

下期預告:

最近發現自己的設計理念和方案闡述能力不佳,正在翻譯《優秀設計師優秀溝通者》的一文,溝通表達能力這也是我明年要進行大幅提升的能力之一,當然優秀溝通的前提是做好充分的思考與準備。


推薦閱讀:

移動端交互動效設計你怎麼看?
注意力與交互設計-郵箱 inbox 中用 tab 給郵件分類
A2-交互原型在項目中的注意點
UI設計必背英語|sketch 上篇
讀書《交互設計沉思錄》

TAG:交互設計 | 用戶體驗 | 個性化推薦技術 |