揭開知識庫問答KB-QA的面紗0·導讀篇
由於專欄已經有10篇文章,且每篇的內容相對較多,導致新關注專欄的朋友一時不知道從哪裡看起。因此,我將這篇文章作為整個專欄的一個導讀,對整個專欄進行介紹和總結,希望能夠給大家帶來一些幫助。
- 對於剛接觸知識庫問答KB-QA這個領域的朋友,建議先閱讀揭開知識庫問答KB-QA的面紗1·簡介篇,這篇文章介紹了KB-QA的相關重要概念:知識庫(知識庫構成、知識庫類型、知識庫的一些關鍵技術)、知識庫問答(應用場景、評價標準、和對話系統的差別)、知識庫問答的主流方法(語義解析、信息抽取、向量建模、深度學習、前沿方法)、KB-QA的數據集。
接下來,針對知識庫問答的主流方法,我們挑選了一些經典論文作為例子,為大家進行了講解:
- 揭開知識庫問答KB-QA的面紗2·語義解析篇介紹了傳統的KB-QA語義解析方法、語義解析、邏輯形式等相關概念,該類方法思想在於將人類使用的自然語言句子轉化為機器可以理解的邏輯形式,通過資料庫查詢得出答案,該方法涉及到一些傳統的NLP方法和語言學,對於初學者可能具有一定困難。
- 揭開知識庫問答KB-QA的面紗3·信息抽取篇 - 知乎專欄介紹了傳統的KB-QA信息抽取方法,思想在於通過抽取句子中的特徵信息和知識庫中相關實體的特徵信息,用以上特徵訓練分類器對候選答案排序得出答案,該方法易於理解,貼近人類的思想,涉及到傳統NLP方法和一些特徵工程,比較適合工業界使用。
- 揭開知識庫問答KB-QA的面紗4·向量建模篇 - 知乎專欄介紹了傳統的KB-QA向量建模方法,思想在於將知識庫的實體和自然語言句子都映射到同一個向量空間中,通過比較相似度尋找答案,該方法是一種數據驅動的方法,不需要太多的預處理,非常易於實現,適合剛接觸該領域想要進行實踐的朋友。
- 揭開知識庫問答KB-QA的面紗5·深度學習上篇 - 知乎專欄介紹了深度學習對向量建模方法的擴展,使用卷積神經網路提升性能,該方法開始涉及到現在很流行的深度學習知識,其思想和向量建模篇很相近,建議兩篇一起閱讀。
- 揭開知識庫問答KB-QA的面紗6·深度學習中篇 - 知乎專欄介紹了深度學習對語義解析方法的擴展,使用卷積神經網路提升性能,該方法是目前KB-QA中state-of-the-art的一個方法,建議對學術研究感興趣的朋友閱讀。
- 揭開知識庫問答KB-QA的面紗7·深度學習下篇(一) - 知乎專欄介紹了現在深度學習很火熱的記憶網路、以及如何使用記憶網路進行KB-QA,是一篇值得做NLP方向的朋友閱讀的文章。
- 揭開知識庫問答KB-QA的面紗7·深度學習下篇(二) - 知乎專欄介紹了現在深度學習很火的注意力機制如何應用在KB-QA上,也是一篇值得做NLP方向的朋友閱讀的文章,建議和深度學習上篇一起閱讀。
- 揭開知識庫問答KB-QA的面紗8·非結構化知識篇 - 知乎專欄介紹了一種全新的思路進行KB-QA,如何使用維基百科等非結構化知識代替傳統結構化的知識庫進行問答,該方法既適合工業界,又給學術界帶了很大的研究價值,核心技術涉及到NLP機器閱讀理解任務。
- 【AI前沿】機器閱讀理解與問答·介紹篇 - 知乎專欄該篇承接非結構化知識篇,針對NLP機器閱讀理解這一任務進行了介紹,包括閱讀理解任務、數據集、評價標準、baseline和相關比賽,機器閱讀理解是NLP領域非常火熱的研究話題,裡面涉及到了很多最新的NLP技術,我們將對該任務進行多篇文章的介紹,非常適合NLP方向的朋友閱讀,我們希望通過對該任務的介紹也能給KB-QA帶來更多的靈感。
- 揭開知識庫問答KB-QA的面紗9·動態模型篇 - 知乎專欄 該篇介紹了一種全新的思路進行KB-QA,該方法也可以拓展到VQA上。思想在於預先定義一些網路模塊,通過對問題進行解析,針對問題使用不同的模塊組合出動態模型進行問答,該方法具有較大的研究價值,是一種很前沿的方法,希望能夠給大家帶來一些靈感。
最後,我們在這裡提供一些乾貨:
- 對於知識庫的存儲,常見採用的是Virtuoso SPARQL engine,配合lambda-DCS進行查詢。
知識庫存儲也可採用jena+sparql框架實現,環境搭建https://jena.apache.org/download/,相關deomo: https://github.com/ayoungprogrammer/nlquery (該條信息由知乎用戶PonLee - 知乎提供,感謝:-D)
公開數據集的下載地址,方便想要復現的朋友們使用:
WebQuestion: https://github.com/percyliang/sempre
Freebase: https://github.com/percyliang/sempre (or https://developers.google.com/freebase/) Wikianswers: http://knowitall.cs.washington.edu/paralex/
所有方法講解都附上了相關文章的鏈接,想要復現的朋友可直接與作者email獲取數據或源碼。
有相關合作意向的朋友歡迎與我聯繫。
有任何疑問歡迎知乎私信與我探討交流。
本專欄已授權在微信公眾號ChatbotMagazine上轉載,感興趣的朋友可以掃描下方微信號關註:
推薦閱讀:
※PaperWeekly 第52期 | 更別緻的詞向量模型:Simpler GloVe - Part 1
※《Neural Response Generation with Dynamic Vocabularies》閱讀筆記
TAG:自然语言处理 | 深度学习DeepLearning | 知识图谱 |