Explainable RS 研究方向匯總

Explainable RS 研究方向匯總

來自專欄推薦系統 文獻館2 人贊了文章

基於羅格斯大學 Dr. Zhang Yongfeng 以及 清華大學 Dr.Chen Xu 2018年的一篇Survey Paper 《Explainable Recommendation: A Survey and New Perspectives》第六章節, 本文旨在羅列並翻譯整理一些Explainable Recommender System 的研究方向,希望能夠為讀者提供一些幫助。

以下是對文章Future Research Directions的翻譯匯總整理:

  1. 基於解釋性的深度學習的推薦系統

現階段的方法主要關注如何設計出可以生成對推薦結果進行解釋的深度模型,這些解釋可以來自於從文本,圖片,以及視頻幀等等中學到的注意力權重,然而,這些方法目前還處在初期研究階段,在未來仍舊有很廣闊的探索空間。除了使用深度模型解釋推薦以外,深度模型本身的解釋性也需要更廣范的探索。在很多情況下,推薦或者解釋模型本身還是一個黑箱,我們本身並沒有完全理解一個物品是怎麼從同類中被選中去做的推薦。這大多數情況下取決於在深度神經網路中的隱藏層並沒有展現出某種特定的可理解的意義。所以,一個很重要的任務是讓為推薦設計出的深度模型自己具有可解釋性,這不止會有利於個性化推薦的研究,也會促進其他很多研究領域例如個性化健保,個性化在線教育,對話機器人,以及自動駕駛系統等等。

最近有一些對於這個問題的研究的曙光,例如,Koh and Liang [2017] 提供了一個基於影響力分析的分析深度神經網路的框架,Pei et al.[2017] 提出了一個白箱測試機制去幫助理解深度學習系統的本來性質。涉及到解釋性的推薦系統的研究,這將會幫助我們理解各個隱性元素如何發揮作用以及他們彼此之間如何關聯互動從而產生了最終的結果。

2. 知識增強的解釋性推薦

大多數解釋性推薦的研究都是基於不同的非結構性的數據,例如文本評價,視覺圖片等等。然而,如果推薦系統能夠像人類一樣展現出一些領域知識,這將會有助於生成對用戶而言更量身定製的推薦和解釋。例如,如果運用好關於電影,演員,導演的知識圖譜,系統將可以給用戶解釋之所以推薦給他一個電影,是因為他曾經看過這個電影裡面主演的很多其他電影。之前的類似工作可以追溯到基於內容的推薦,這種推薦非常有效但是缺少新穎性,而且需要大量人力工作去給用戶興趣以及內容建立連接。

隨著知識圖譜嵌入技術的快速發展,現在我們已經可能做到集成圖嵌入的學習以及推薦模型去做解釋性的推薦系統了,這樣推薦系統就可以基於某些領域知識去做推薦,然後可以向用戶解釋某種推薦之所以被做出是基於知識推理,跟我們人類在作出推薦時很相似。這也有助於構建對話型的推薦系統,從而可以基於知識和用戶交流, 從而提供解釋性的推薦結果。從更廣泛的意義上來講,這代表著未來關於智能系統的一個研究方向,即又一次集成經驗主義和理性主義去為智能體建模。

3. 異構性信息建模

現代信息檢索和推薦系統研究都是基於很多異構的多模態的信息源。例如,網路搜索引擎可以將文檔,圖片,視頻,音頻等作為用戶請求的候選項;電商推薦系統研究基於用戶數值評分,文本評論,產品圖片,用戶背景信息等,去做用戶的個性化和推薦;社交網路利用了用戶的社交關係,上下文信息像是時間和地點去做搜索和推薦。現在的系統大多數都利用了異構的信息源去提高搜索和推薦的效果,與此同時很多怎麼利用這些信息去做解釋性推薦的工作需要被更多的關注。這包括了這樣一些研究,例如基於統一的兩種或多種的多模態信息進行解釋,通過遷移學習從異構的信息源為推薦做出解釋,在信息檢索和推薦中做跨領域的解釋等等。

4. 為了解釋的自然語言生成

現在大多數存在的推薦解釋模型都是通過去生成某種句子樣本,某種關聯關係,和詞雲的方式來實現的。一種更像是生成自然語言的方式的解釋也存在並被需要。

最近,有一些相關的工作做了生成自然語言去做解釋的研究,他們的基本想法是基於用戶評價去訓練序列到序列的模型,然後生成類似的很像用戶評價的句子作為推薦的解釋,例如在Costa et al [2017] 和 Chen et al. [2018c] 工作中展現的那樣。基於自然語言生成做解釋性推薦的工作目前還在初期階段,還有很多工作可以做。例如,並不是所有的評價內容都可以被用於去做解釋的目的,決定哪一部分有用很具有挑戰性。除了文本評價,我們也可以利用視覺圖片,知識庫,情感以及其他信息作為生成更好的自然語言的解釋,例如給出具有某種情感傾向的解釋。

5. 超越說服性的解釋

現階段的解釋性推薦的研究更關注如何生成能說服用戶接受的解釋上面 Nanou et al. [2010] 。然而,解釋也有助於提升信任感 Cramer et al. [2008],效率 Tintarev and Masthoff [2011],多樣性Yu et al. [2009], 滿意度Bilgic and Mooney[2005],以及系統的可理解性Knijnenburg et al. [2012]. 例如,通過讓用戶知道為什麼不給他買某種商品,系統可以幫助用戶節省時間以及贏得用戶更多的信任。

所以,探索不局限於說服用戶目的的解釋性推薦系統非常重要。

6. 解釋性推薦系統的評價機制

如何評價一中解釋性推薦系統的好壞一直是一個重要的問題。解釋性推薦系統的性能好壞可以被很容易得基於傳統的評分預測或者Top-N排名評價方法去進行評價。為了去衡量解釋性的效果,一個可行的範式是去測試解釋性和非解釋性的推薦系統模型在現實情況下的用戶研究,例如A/B測試或者在M-Turk上的在線Worker測試。然而,現在仍舊缺少足夠的離線方式去評價解釋的好壞。評價解釋的好壞跟信息系統很多層面的信息相關,包括但不僅限於說服性,還有有效性,效率,透明度,可信度,以及用戶滿意度。發展出可信賴的以及簡單易用的評價方式將會節省很多離線評價的努力。

7. 動態的解釋性推薦系統

用戶偏好和物品資料是會隨著時間變化的,所以,個性化推薦系統必須根據最新的用戶偏好去做動態調整,這就涉及到一個動態或者說時間相關的推薦研究方向。同樣的想法也適用於解釋性的推薦系統。因為用戶喜好也會隨著時間變化,解釋也應該隨著時間變化,以至於可以根據最新的用戶興趣來做出推薦的解釋。現在大多數的解釋性推薦系統都是靜態的,例如,用戶個人資料都是根據訓練數據集,然後解釋是隨之生成的,但是解釋並不是時間相關或者上下文相關的。

動態的解釋性推薦系統可以作為時間或者上下文相關推薦的研究的一個拓展,或者作為序列推薦的一個拓展,甚至是在其他動態的推薦系統設置下。例如,Zhang et al. [2015b] 嘗試基於記憶網路,利用用戶的對於物品的時間敏感的興趣去解釋用戶的購買行為 , Chen et al. [2018b] 學到了用戶以前的購買物品如何給推薦的產品做出貢獻,來作為序列推薦系統的解釋。然而,還有很多動態的解釋性的推薦工作可以做,以達到系統可以提供時間相關的解釋給用戶的目的。

8. 不同解釋的聚合

不同的解釋性推薦模型或許會生成不同的解釋,也就是說,解釋會高度依賴於解釋模型。所以,一個普遍的問題是,我們通常需要為了不同的解釋目的去設計不同的解釋模型從而生成不同的解釋,而且這些解釋在邏輯上並不一定一致。當系統為了搜索和推薦結果生成一堆候選的解釋時,一個巨大的挑戰就是怎麼選擇最合適的組合方式在一個有限的空間展示他們,以及如何更有邏輯地將他們聚合成為一個綜合的解釋。解決這個問題也許還需要額外的努力,去集合統計上和邏輯上的方法去做機器學習,從而讓這個系統可以有一些邏輯推理的能力去更好地做出解釋。

9. 在交談中回答「為什麼」的問題

推薦系統的問題研究已經拓展到了很多方面,包括推薦什麼,什麼時候推薦,在哪裡推薦,給誰推薦等等。除了這些,解釋性推薦致力於回答為什麼推薦這個問題,這個問題致力於滿足用戶對於為什麼給他推薦某個物品的好奇心。解決為什麼一個物品被推薦了不僅可以幫助用戶理解推薦背後的理性邏輯,也可以幫助提高系統的效率,透明度,以及可信度。

基於不同的推薦場景,用戶可以或被動或主動地收到推薦的解釋。在傳統的基於網頁的系統中,例如在線電子商務平台,解釋可以和物品一起展示給用戶,所以用戶可以被動得接收到每一個推薦的解釋。在最近興起的一些基於智能設備的對話推薦模型中,當推薦不那麼直觀得可以理解的時候,用戶可以通過詢問「為什麼」相關的問題從而主動得尋求推薦的解釋。在這種情況下,解釋性的推薦系統將會極大地提高智能系統能夠處理的請求範圍。

Reference:

  1. Yongfeng Zhang, Xu Chen,《Explainable Recommendation: A Survey and New Perspectivesarxiv.org/pdf/1804.1119

2. Pang Wei Koh and Percy Liang. Understanding black-box predictions via influence functions. arXiv preprint arXiv:1703.04730, 2017.

3. Kexin Pei, Yinzhi Cao, Junfeng Yang, and Suman Jana. Deepxplore: Automated whitebox testing of deep learning systems. In Proceedings of the 26th Symposium on Operating Systems Principles, pages 1–18. ACM, 2017.

4. Felipe Costa, Sixun Ouyang, Peter Dolog, and Aonghus Lawlor. Automatic generation of natural language explanations. arXiv preprint arXiv:1707.01561, 2017.

5. Xu Chen, Yongfeng Zhang, Hongteng Xu, Yixin Cao, Zheng Qin, and Hongyuan Zha. Visually explainable recommendation. arXiv preprint arXiv:1801.10288, 2018c.

6. Theodora Nanou, George Lekakos, and Konstantinos Fouskas. The effects of recommendations? presentation on persuasion and satisfaction in a movie recommender system. Multimedia systems, 16(4-5):219–230, 2010.

7. Henriette Cramer, Vanessa Evers, Satyan Ramlal, Maarten Van Someren, Lloyd Rutledge, Natalia Stash, Lora Aroyo, and Bob Wielinga. The effects of transparency on trust in and acceptance of a content-based art recommender. User Modeling and User-Adapted Interaction, 18(5):455, 2008.

8. Nava Tintarev and Judith Masthoff. Designing and evaluating explanations for recommender systems. Recommender Systems Handbook, pages 479– 510, 2011.

9. Cong Yu, Laks VS Lakshmanan, and Sihem Amer-Yahia. Recommendation diversification using explanations. In Data Engineering, 2009. ICDE』09. IEEE 25th International Conference on, pages 1299–1302. IEEE, 2009.

10. Mustafa Bilgic and Raymond J Mooney. Explaining recommendations: Satisfaction vs. promotion. In Beyond Personalization Workshop, IUI, volume 5, page 153, 2005.

11. Bart P Knijnenburg, Martijn C Willemsen, Zeno Gantner, Hakan Soncu, and Chris Newell. Explaining the user experience of recommender systems. User Modeling and User-Adapted Interaction, 22(4-5):441–504, 2012.

12. Yongfeng Zhang, Guokun Lai, Min Zhang, Yi Zhang, Yiqun Liu, and Shaoping Ma. Explicit factor models for explainable recommendation based on phrase-level sentiment analysis. In Proceedings of the 37th international ACM SIGIR conference on Research & development in information retrieval, pages 83–92. ACM, 2014a.

13. Yongfeng Zhang, Min Zhang, Yi Zhang, Guokun Lai, Yiqun Liu, Honghui Zhang, and Shaoping Ma. Daily-aware personalized recommendation based on feature-level time series analysis. In Proceedings of the 24th international conference on world wide web, pages 1373–1383. International World Wide Web Conferences Steering Committee, 2015b.

14. Xu Chen, Hongteng Xu, Yongfeng Zhang, Yixin Cao, Hongyuan Zha, Zheng Qin, and Jiaxi Tang. Sequential recommendation with user memory networks. In Proceedings of the Eleventh ACM International Conference on Web Search and Data Mining. ACM, 2018b.


推薦閱讀:

智能製造,聽聽大咖怎麼說
晶元向左、硬體向右,中路需要的是最強 AI 大腦 | 對話圖靈
從強化學習到深度強化學習(下)
布局優質資產端,恆泰善信構築無人駕駛新高地!
Norman,一個患有精神病的AI

TAG:推薦 | 推薦系統 | 人工智慧 |