聊天機器人,怎麼學不會聊天?
2018年,Facebook關閉虛擬助手「M」,亞馬遜Alexa產品發出怪笑,聊天機器人市場「事故頻發」,究竟是誰扼殺了聊天機器人?
試想一下,一個靜謐的午夜,你和家人正在熟睡,家中突然響起毛骨悚然的笑聲,時遠時近,這困擾了大人,驚嚇了孩子。而這一切的怪笑,都是由Alexa發出的。作為Amazon的主推產品,Alexa這一動作讓許多用戶陷入恐慌之中。
目前,亞馬遜方面並沒有對此次Alexa出現故障的原因進行詳盡解釋,並且它強調這是在極少數情況下才會發生的,儘管網上反映的問題代表不了 Echo的數千萬用戶,但可以看出亞馬遜對此事的態度其實不以為意。
類似的情況,在聊天機器人身上已經不是第一次發生。兩年前,微軟Twitter平台的聊天機器人Tay變成了種族主義者,不到一年,它的後續產品Zo又再次出現問題。Zo將古蘭經稱作非常暴力,並且它認為抓住本·拉登不止一個政府多年情報收集的結果。
Zo發表的不宜言論
之前,Facebook關閉了虛擬助理「M」,團隊相關成員分散到其他部門任職。聊天機器人的發展,道阻且長。
智能機器人變成人工智障?
「我們可能都希望能生活在這樣的世界裡:和機器人有著最自然的對話,它將一切任務都執行得完美無瑕。這一路走來確實不容易,而且說實話我們已經發展得很快了。」Politibot的Suárez認為:「但不幸的是,我們還沒有到那個理想的生活狀態,還要好幾年,機器人才能好到普羅大眾都能接受。」
然而,現實卻遠不及Suárez的預期,聊天機器人依然存在著眾多問題。2016年,Facebook Messenger開放其程序介面後,收到的用戶反饋卻遠不及預期。眾多機構確實可以在短時間內擁有自己的智能聊天機器人,但當此類機器人無人類干預時,這些機器人的應答失敗率高達 70%,用戶體驗更是相當糟糕。
從圖靈測試到Eliza的精神治療,聊天機器人發展至今已經走過了近70年,在漫長的發展歷程中,聊天機器人並未得到真正的普及,現今依然存在著諸多弊病。
是誰讓聊天機器人變成了這樣?智能相對論(ID:aixdlun)認為,是人類,更是機器本身。部分核心技術及適配性問題,依然是聊天機器人的阿喀琉斯之踵:
1.複雜語言識別困難
現代化聊天機器人的對話界面主要依賴於語音識別,從而根據用戶命令做出便捷迅速的反應,比如下午三點去參加會議、今天的天氣怎樣等。
語言作為一種主觀性較強的表達方式,人們說話的規則具有一定的變化性。這和電腦程序不同,人們表達不會完全受制於規則,能夠自由的遣詞造句,並以此來傳遞信息。除了地方方言外,每個人也會有自己的表達方式,例如心照不宣的暗語,或者某些特定的梗。這就需要聊天機器人去陌生化,僅僅完美keyword/keyword地理keyword/keyword解結構化語言的系統將難以滿足大量用戶的需求,這對聊天機器人的系統提出了更高的要求。
以Richard S.Wallac 設計的Alice聊天機器人為例,其在中文處理問題上,就存在一些問題。這是因為漢語不像英語等語言,用空格或其他標記分詞,這就加大了ALICE對中文支持的難度。此外,其對於漢語分詞採用的一般匹配法、詞頻統計法、同義句的處理等方面也存在著許多技術難題。
人工智障般的聊天機器人
2.個性化適配之痛
個性化適配的問題體現在兩個方面,一方面人機信任是聊天機器人個性化發展的一個重點攻堅點。調查顯示,許多公司領導對於聊天機器人處理待辦事項是並不看好的,聊天機器人程式化的語言會讓許多人覺得乏味、沒有人氣,這也是公司助理一職並未被取代的原因。
另一方面,聊天機器人很容易對人的需求產生誤讀。比如對Siri發出區塊鏈的指示,Siri提供的是關於區塊鏈的百度百科,這與用戶想要了解區塊鏈的最新發展動態的初衷大相徑庭。
目前聊天機器人語音識別主要基於語音識別的基本架構、聲學模型、語言模型並進行解碼,而真正通過用戶畫像來實現個性化適配的聊天機器人少之又少。其實,不同用戶的性格、特點、知識層次都不相同,如果有預設的用戶畫像,那出現適配失誤的可能性也會大大減小。
當前語音識別的通常模式
縱觀歷史上機器學習能夠做到的事情,都是一些字元識別(OCR),語音識別,人臉識別一類的,這些稱之為識別系統。這些系統存在的問題在於難以變通,簡單的語音識別難以真正為用戶較為複雜的工作助力,線性的識別方式也難以適用於更開放式的應用場景。
3.隱私安全終成隱憂
Facebook爆史上最大數據泄露案,特朗普被指利用AI競選成功,這也讓更多的聊天機器人用戶對自身的隱私感到隱憂。Alexa發笑事件中亞馬遜公司對於事件原因的閃爍其詞,似乎用戶數據已經進入了一個圍牆花園的模式。語音分析和人工智慧軟體存在於一個黑匣子中,而這些軟體只有矽谷的開發人員才能真正理解。很難想像,如果你將一切的智能家居與聊天機器人連接起來時,這一切都在一個你無法擁有也無法控制的計算機上控制著你的生活以及你的家。
作為語音識別領域的領軍人物,微軟於2016年也僅僅將錯誤率控制在5.8%左右。可是隨著人工智慧進一步拓展到金融、醫療等領域,1%的錯誤率導致的可能是財產的損失和生命的安全。
微軟語音識別錯誤率(2016年)
此外,配套設施的不完善難以讓聊天機器人發展成了一個嚴密的體系,這使得初次試水的用戶對此頗有微詞。聊天機器人何時能夠完善到能夠大範圍普及,這也是產品長足發展需要認真思考的問題。
死地而後生,聊天機器人或許需要洗心革面
曾經火遍全球的索菲婭機器人最近攤上大事了。Yan LeCun(機器人專家)指責索菲婭與人類堪稱完美的聊天是一場徹頭徹尾的騙局,以目前人工智慧的技術來看,此種對話是不可能達到的。然而能像人那樣自然地聊天的機器人一直以來都是機器人學者所追求的目標之一,這是一個漫長的過程。
而在2018年年初,Facebook關閉了虛擬助理「M」,這像是壓死駱駝的最後一根稻草,許多品牌對聊天機器人已經不再感興趣,聊天機器人的發展走進了一個死胡同。曾經熱極一時的聊天機器人似乎遭遇了滑鐵盧,死地而後生,智能相對論(ID:aixdlun)認為,可以從三個方面洗心革面。
1. 塑造聊天機器人的獨立三觀
能夠獨立表達喜歡、不喜歡和偏好怎樣的人類性格,在聊天的過程中展示出誠實和值得信任等可貴品質是塑造聊天機器人獨立三觀的重要體現。正如聊天機器人被引入日常生活,我們還能訓練機器人去識別我們的語言,挖掘我們的喜好,甚至還能分析我們的口音,推測我們的情緒。
通過自然語言和情感分析,Quartz公司嘗試著讓Quartzy來指導特定用戶做麵包。Quartzy會以一種友好且有趣的方式和用戶聊聊「怎麼做一個免揉麵包」,這項體驗會持續兩天,一旦用戶完成了第一個步驟,Quartzy 會在大概 12 小時後,用 Facebook Messenger 給你「叮」一個通知,提醒你完成後續的步驟。這是機器人獨立三觀的一個體現,當然希望以後這樣的嘗試會更加普及。
2.從鸚鵡學舌到烏鴉喝水
鸚鵡學舌是藉由人類語言的模仿行為,其類似於當前由數據驅動的機器人。烏鴉喝水則是一個完全的自主行為,其含括了感知、認知、推理、學習、和執行,這是聊天機器人朝想像力、創造力更高層次的進階。目前,要真正實現聊天機器人的烏鴉喝水模式主要從兩個方面努力:
一方面,讓人工智慧在自動學習中更聰明。 伊恩·古德費洛用兩個神經網路,進行數字版的貓鼠遊戲一個負責造假,一個負責驗真,從而在對抗中不斷提高。首先,依據見過的圖片生成新圖片,需要機器人總結規律、發揮想像力和創造力;其次,判別某張圖片是否是真實事物,這需要它憑訓練積累的經驗。
另一方面,建立更加廣博的知識圖譜。知識圖譜的建立需要從靜態和動態兩個方面出發,真正將目前聊天機器人聊天對話場景從垂直領域拓展到開放領域。同時,構建知識圖譜的重點在於語義理解、知識表示、QA、智能對話和用戶建模。
3.學會更快更多元的賺錢
聊天機器人作為一個虛擬助理,其最終目的是為了簡便工作方式或者直接盈利。目前的聊天機器人主要分為兩種:單純聊天的機器人以及垂直領域的定製機器人,如小i機器人就衍生出了全渠道跨領域智能客服機器人、智能呼叫中心解決方案、智能營銷解決方案、智能語音交互解決方案等多個發展方向。就當下來看,聊天機器人主要利用於內置商業場景中,如用機器客服代替人工客服。
事實上,聊天機器人盈利方式的開發還遠遠不夠。作為人工智慧類產品的重要代表,其在聊天機器人+原生內容、利用聊天機器人做聯盟網路營銷、用聊天機器人做用戶調研等方面是大有可為的。
這顯然不是聊天機器人自己的任務,也是整個行業的工作。
艾伯特:國內第一家人工智慧門戶(http://www.aibbt.com/)微信公眾號:aibbtcom商務合作:hezuo@xiupinzhe.com實習招聘:hr@xiupinzhe.com
推薦閱讀:
※Hulu機器學習問題與解答系列 | 二十三:神經網路訓練中的批量歸一化
※【鄒大濕】2018 AI 產品趨勢(下):喧囂的追風者和靜默的收割人
※透明化體驗身臨其境——工博會系列之一
※人工智慧的熱點:深度強化學習正成為通往通用AI的關鍵
※互聯網+上半場信息浮游,消費者如何在下半場拯救自信