馬庫斯:DeepMind新出的機器心智網路不錯,但有誤導性

原作 Gary Marcus

Root 編譯

量子位 報道 | 公眾號 QbitAI

「DeepMind最新出的論文Machine Theory of Mind還不錯(fascinating)。」

這是馬庫斯昨天在Medium上對DeepMind新文章給出的評價,「但他們又犯了哲學上的錯誤。這已經不是第一次了。」

一個月以前,馬庫斯還寫過篇長文談到這個問題。

雖然DeepMind(以下縮寫為DM)官方表明在造圍棋演算法的過程中,並沒有用到人類的知識。

但馬庫斯指出,DM圍棋演算法里所用到的蒙特卡洛樹搜索就是基於以往在圍棋程序上的積累。

「而DM他們的工作卻傾向於放大人工智慧後天自我塑造作用,」馬庫斯說,「這有很強的誤導性。」

這次機器心智理論的文章,說的是可以自動學會給其他智能體的行為建模。

但馬庫斯認為,這和以前的AlphaGo的工作非常相似,DM悄悄地搭建了非常多的前提先決條件,包括:

1)默認其他智能體的存在是個事實;

2)不同的智能體可以有不同的觀念;

3)這些觀念有存在錯誤的可能(觀念可以通過系統的特定的輸出節點看出來)。

所以說,他們已經對這個心智理論的底層進行硬編碼了。

為了更好的度量,他們針對牆、物體、智能體分別搭建了三個極其不同的具有代表性的平面。

上述所有操作都能在文章的正文和附錄中找到,但是卻沒有在摘要和討論里大大方方地說出來(馬庫斯os:搞得那麼隱蔽是鬧哪樣)。

尤其值得重視的是,這次預置的先天知識和框架和之前AlphaGo的是不一樣的。

AlphaGo依賴的是蒙特卡洛樹搜索,而ToMNet,心智理論神經網路,是依賴於能把單個智能體的已有知識和分析區分開的架構模塊。

正如馬庫斯1月17號的那篇文章里的預測(還有1月2號那篇深度學習)一樣,DeepMind當下的工作會出現大量不承認底層預置知識重要性的現象。

(演算法)要想在遊戲中玩到最後,編程的人越要重視(演算法)底層的能力。

可惜,不同的任務之間(對演算法)有不同的底層要求。

棋盤遊戲要用蒙特利樹搜索,理解語言要用句法分析樹,理解3D場景要用幾何圖元(圖形軟體包中用來描述各種圖形元素的函數,或簡稱為圖元,primitive),那些抱團才能解決的問題分析要用到機器心智理論神經網路。

總而言之,所有這些預置的知識都說明了,人工智慧不可能是一塊白板。更準確地來說,是像伊曼努爾·康德(Immanuel Kant)所預見到的那樣,具有時空上的多樣性。

只有當編程圈意識到知識原始積累的重要性,造出來的系統才能成事兒。不承認預置知識的貢獻,還一個勁兒地稱「學習系統」,強調演算法所有能力都是後天習得的,只會進一步誤導大家。

馬庫斯希望AI界的人能更多地從底層方面,原則上,開始意識到機器預置知識(innate machinery)的重要性。

最後,附編譯來源,

medium.com/@GaryMarcus/

你可能感興趣:

馬庫斯現場駁哈薩比斯,AlphaZero並非從零學習

馬庫斯發arXiv長文,論證AlphaZero為什麼不是塊白板

馬庫斯認為深度學習存在十大挑戰

歡迎大家關注我們的專欄:量子位 - 知乎專欄

誠摯招聘

量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復「招聘」兩個字。

量子位 QbitAI · 頭條號簽約作者

?? ? 追蹤AI技術和產品新動態


推薦閱讀:

無人駕駛時代你不打算買車了?五個理由告訴你還得買
絕對是行李箱中的特斯拉,自動行走,自動避障!
人工智慧應用於檢測設備市場潛力巨大——工博會系列之二
【認知升級】·第二天|關於思考:Alphago也不過是弱人工智慧
人工智慧,是當計算機能欺騙人類的時候

TAG:GoogleDeepMind | 人工智慧 | 機器學習 |