為什麼聊天機器人表現不盡如人意
本文由 「AI前線」原創,原文鏈接:為什麼聊天機器人表現不盡如人意
策劃編輯|Vincent編譯 | 孫浩編輯|Emily
AI 前線導讀:」Facebook Messenger 的商業機器人和 Google 助手變得越來越強大,幾乎每家公司也都推出了自己的機器人,亞馬遜 Echo Dot 和 Google Home Mini 成為了頂級節日禮品——聊天機器人和助手最終在 2017 年成為主流。也許你已經用過其中某件產品逛網店,檢測網路連接,甚至在上面買過一份火雞。」
儘管聊天機器人在 NLP 上取得了巨大的進步,但它們最大的缺點是仍然需要添加語料腳本和人工輔助;我們可以認為它只不過是一個美化的 IVR,或者更極端的認為它只是一個基於搜索的查詢而已。假如你的提問與語料腳本相差太遠,你便會得到「我不懂這個問題」的回答。
幾天前,我們曾報導過 Facebook 開發的虛擬助理 M 已經被關閉的消息,感興趣的讀者可以點擊下面的鏈接閱讀:
《Facebook 虛擬助理 M 已死,這就是聊天機器人的現狀》
鏈接:https://mp.weixin.qq.com/s?__biz=MzU1NDA4NjU2MA==&mid=2247487846&idx=4&sn=4b9848d39f34a4d092ce10bb579e399b&chksm=fbe9a8a9cc9e21bff38fbb465b02626f14a0eb4d534de409da89cf2c50c47173fa90f180e294#rd
要理解聊天機器人為什麼會如此糟糕,你需要了解它們是如何構建的。
聊天機器人組件
步驟 1:決定你想讓聊天機器人服務的場景,並收集所有相關的問題。每一個問題都定義了一個意圖。所有這些意圖都被構建到 NLP 引擎的樹型結構中。
步驟 2:每個問題和意圖都會根據用戶可能的表達習慣,採用多種方式來表述。比如:用「山景城的天氣」和「今天的天氣有多冷」來查看天氣。這些被稱為歧義。所有的聊天機器人的歧義都被 NLP 引擎翻譯成相應的意圖。
步驟 3:最後,將聊天機器人語料腳本或者對話場景聯繫在一起。比如:假如你買了一件襯衫,那就輸入性別,尺寸,顏色。如果你離開了這個話題,問了句「這件襯衫是用棉花做的嗎?」,那你就不一定那麼走運獲得正確答案了。
聊天機器人之所以不盡如人意是因為所有這些步驟都存在著巨大的缺點。
聊天機器人存在的問題
要想在功能覆蓋方面做得很好,就需要知道用戶可能會問的所有問題。如果沒有用戶數據,就會遇到冷啟動問題——使用一個功能有限的測試版聊天機器人。它將收集數據並學習,但這會讓用戶感到沮喪。不過很少有公司在一開始就有大量的數據。因此,絕大多數市面上的聊天機器人都是很普通的,它們的目標是隨著時間的推移不斷提升自身能力。
要把問題分類做得很好,你需要大量的問題,包括廣泛的行業領域知識。例如:「上不了網」和「我的瀏覽器沒有載入」一樣。現在,這些歧義大多是人為造成的——除了減少用戶問題的覆蓋率之外,消除歧義這項工作可能是成本較高的了。規模化的自動創建這些歧義的新方法正在投入使用,儘管對於這種智能來說,還需要一些時間來獲得領域的背景知識。
最後,要想在一個豐富的對話腳本中表現突出,聊天機器人需要捕捉用戶想要跳轉意圖場景的所有方式,並通過回溯之前的選項,跳轉到其他選項,並得到正確的回復答案。在不知道用戶如何使用它的情況下,編寫這樣的腳本是很困難的,這是一個讓用戶無法避免的問題。
自學習和定製樹有希望解決這些問題,同時極大地提升使用體驗。
聊天機器人未來的發展所在
- 自學習:隨著使用數據被捕獲學習,聊天機器人會變得越來越好,它的反饋信息將用於人工擴展服務支持、歧義和腳本選項——這是一個緩慢而乏味的過程,但又不能擴大規模。所以,聊天機器人智能應該促進自我學習,這樣它就能識別出用戶想要的新功能、問題、歧義或腳本變化,並相應地調整體驗。通過這種方式,它可以自動為 #1、#2 的變體添加問題 (和答案),並更改 #3 的腳本,以快速構建一個健壯的服務。
- 個性化:聊天機器人目前為止還沒有提供超乎想像的個人體驗。個性化與自學習有關,每個用戶根據機器人的學習行為獲得不同的腳本。這個機器人是一個自定義的實例,它可以使用你的數據自動調整,可以動態地更新所顯示的語料腳本。在理想的情況下,每個人都有自己的個人機器人版本,類似於電影《她》中的薩曼莎。隨著人工智慧創新的步伐加快,2018 年將會帶來更廣泛的智能能力,從而在聊天機器人中實現更深入的個性化對話。
更多乾貨內容,可關注AI前線,ID:ai-front,後台回復「AI」、「TF」、「大數據」可獲得《AI前線》系列PDF迷你書和技能圖譜。
推薦閱讀:
TAG:聊天機器人 |