AI重大突破:DeepMind 構建心智理論神經網路讓機器互相理解
AI重大突破:DeepMind 構建心智理論神經網路讓機器互相理解
來源:DeepMind
編譯:Marvin
【導讀】DeepMind近日發表的最新研究提出「機器心智理論」(Machine Theory of Mind),啟發自心理學中的「心智理論」,研究者構建了一個心智理論的神經網路ToMnet,並通過一系列實驗證明它具有心智能力。這是開發多智能體 AI 系統,構建機器 - 人機交互的中介技術,以及推進可解釋AI發展的重要一步。
心智理論(ToM; Premack&Woodruff,1978)泛指人類能夠理解自己以及他人的心理狀態的能力,這些心理狀態包括慾望、信仰、意圖等。DeepMind的研究人員試圖訓練一台機器來構建這樣的模型。他們設計了一個心智理論的神經網路(Theory of Mind neural network)——ToMnet,該網路使用元學習通過觀察其行為來構建智能體(agent)所遇到的模型。通過這個過程,ToMnet獲得了一個關於智能體的行為的強大先驗模型,以及僅使用少量行為觀察就能更豐富地預測智能體的特徵和心理狀態的能力。研究者將ToMnet應用到簡單的格子環境中的智能體,表明它可以學習模擬來自不同群體的隨機、演算法和深度強化學習agent,並且它通過了經典的ToM任務測試,例如「Sally-Anne test」(Wimmer&Perner,1983; Baron-Cohen et al., 1985 )。研究者認為這個系統——智能體自主地學習如何模擬它的世界中的其他智能體——是開發多智能體AI系統,構建人機交互的中介技術,以及促進可解釋AI進展的重要一步。
受人類心智理論啟發的「機器心智理論」
目前,深度學習和深度強化學習取得的進展雖然令人興奮,但也有人擔心我們對這些系統的理解是不足的。神經網路通常被描述為不透明的、不可解釋的黑盒。即使我們對其權重有完整的描述,也很難弄清楚它們正在利用的模式,以及它們可能出錯的地方。隨著AI越來越多地進入人類世界,理解它們的需求也越來越大。
讓我們停下來問問:對於一個agent來說,「理解」另一個agent究竟意味著什麼?作為人類,我們每天都在面對這一挑戰,因為我們每天都在與潛在特徵、潛在狀態和計算過程都幾乎完全無法訪問的其他人類交流。但我們「理解」他人功能非常卓越。我們可以預測陌生人未來的行為,並推斷出他們對世界的了解;我們可以規劃與他人的互動,並建立高效的溝通。
對其他agent的「理解」有一個顯著特點是,它們對agent的真正的底層結構幾乎沒有任何參考。我們人類通常不會試圖去估計其他人的神經元的活動,推斷他們前額皮質是怎麼連接的,或者計划去與其他人的海馬體地圖去交互。認知心理學的一個重要觀點是,我們的社會推理取決於其他人的高層次模型(Gopnik&Wellman,1992),這些模型涉及的抽象概念並未描述所觀察行為的基礎的詳細物理機制;相反,我們理解的是他人的心理狀態,例如他們的慾望、信仰和意圖。這種能力通常被描述為心智理論( Theory of Mind)。
在這篇論文中,我們從人的心智理論中獲得靈感,試圖構建一個學習對其他智能體進行建模的系統。我們將其描述為「機器心智理論」(Machine Theory of Mind)。我們的目標不是要提出一種智能體行為的生成模型和反轉它的演算法。相反,我們關注的是觀察者如何自主學習使用有限的數據為其他agent建模。這使我們的工作與以前的研究不同,以前的相關研究依賴人工的智能體模型,例如使用反向RL,貝葉斯推斷,貝葉斯心智理論或博弈論。相反,我們學習智能體模型,以及如何通過 meta-learning從頭開始對它們進行推理。
構建一個豐富、靈活並且高性能的機器心智理論對AI來說是一個巨大的挑戰。本文的一個主要觀點是,構建ToM的多數初始的挑戰可能會被視為簡單的學習問題,因為它們是用公式表示的。我們在這裡的工作是對這些簡單公式進行計算的練習。
這項工作有許多潛在的應用。學習他者的豐富模型將改進許多複雜的多智能體任務的決策制定(decision-making),特別是在需要基於模型的規劃和想像的情況下。這些模型對於價值調整和靈活合作也很重要,而且很可能是未來機器道德決策的一個組成部分。它們對傳播和教育學也非常重要,可能在人機交互中扮演關鍵角色。探索這種能力產生的條件也可以揭示人類能力的起源。最後,這些模型可能會成為人類理解人工智慧的重要媒介。
最後,我們的強烈動機是使人工智慧可以為人類所解釋。我們在這裡嘗試一種新的方法:試圖構建中介系統,以減少行為空間的維度,並以更易理解的形式表現它們,而不是修改agent的結構以使其內部狀態暴露於人類可解釋的形式。在這個角度上,對機器ToM的追求是建立機器與人類期望之間缺失的界面(missing interface)。
研究方法:元學習任務實驗
我們考慮將構建心智理論作為一個meta-learning問題。在測試時,我們希望能夠遇到一個我們以前從未見過的新的agent,並且它們已經有強大而且豐富的關於它們行為先驗知識。此外,當我們看到這個agent在它的世界行動時,我們希望能夠收集關於它的潛在特徵和心理狀態的數據(即形成後驗),這將使我們能夠改進對它們未來行為的預測。
為此,我們制定了一個meta-learning任務。我們構建了一個觀察者(observer),它在每個episode中都可以看到agent的一組新的行為痕迹。觀察者的目標是預測agent未來的行為。在訓練過程中,觀察者應該從有限的數據中快速形成有關新agent的預測。這種關於新agent的「學習」就是我們所說的meta-learning。通過這個過程,觀察者還應該學習agent行為的有效先驗,這些知識隱含地捕捉了訓練群體中agent之間的共性。
我們引入兩個概念來描述這個觀察者網路的組成部分及其功能角色。我們區分了一般心智理論——網路的學習權重,它包含關於訓練集中所有agent共同行為的預測,以及特定於agent的心智理論——在測試時通過觀察形成的「agent embedding」,它包含了是什麼使得agent的特徵和心理狀態與其他agent不同。這些對應於agent行為的先驗和後驗。
這篇論文的結構是一系列實驗,這些實驗針對該「機器心智理論」的網路(ToMnet)逐漸增加複雜度。這些實驗展示了ToMnet的思想,以及它學習其他agent豐富模型的能力,這些模型融合了人類心智理論的典型特徵,例如對錯誤信念的認識。
研究貢獻:ToMnet學會預測和解釋信念
本研究的貢獻如下:
- 在3.1節,我們展示了對於簡單的隨機智能體,ToMnet學會了基於智能體特性的近似貝葉斯最優等級推斷。
- 在3.2節,我們展示ToMnet學會了推斷algorithmic agents的目標(有效執行 few-shot逆向強化學習),以及它們如何平衡成本和回報。
- 在3.3節,我們展示ToMnet學會表徵不同種類的深層強化學習智能體,捕捉整個群體變異的關鍵因素,並形成這些智能體的抽象嵌入。我們還表明,ToMnet可以發現關於行為空間的新抽象。
- 在3.4節,我們表明,當ToMnet被訓練於POMDPs中行動的深度RL智能體時,它隱含地知道這些agent可能持有關於世界的錯誤信念。這是人類心智理論的核心組成部分。
- 在3.5節,我們證明ToMnet可以被訓練來預測agent的信念狀態,並且明確地揭示了agent的錯誤信念。我們還表明,ToMnet可以僅從它們的行為推斷出不同agent能夠看到的內容,以及它們基於此傾向於相信的內容。
圖1. ToMnet的架構
圖2.隨機智能體行為的網格世界示例
圖3. 在隨機智能體上訓練的ToMnet
圖13. 有監督的信念預測
更多細節請查閱原論文:https://arxiv.org/pdf/1802.07740.pdf
新智元
推薦閱讀:
※有關AI的利弊,李開復真的說對了嗎?(芥子說物聯 第十二期)
※飯桌上聊起人工智慧,這是最周全的科普姿勢。
※拋棄iPhone X?揭露高端收入群體偏愛安卓手機的秘密!
※瞄準短視頻紅海 「AI+內容」精準營銷引爆市場
※元璟資本田敏:投資醫療,AI雖好但並非全部
TAG:AI技術 |