語言會讓機器更聰明嗎?| 枝蔚的論文庫0429

語言會讓機器更聰明嗎?| 枝蔚的論文庫0429

來自專欄認知與計算的實證科學

Lupyan, G., & Bergen, B. (2016). How language programs the mind. Topics in cognitive science, 8(2), 408-424.

Mikolov, T., Joulin, A., & Baroni, M. (2016, April). A roadmap towards machine intelligence. InInternational Conference on Intelligent Text Processing and Computational Linguistics(pp. 29-61). Springer, Cham. (題圖來自本文)

明育在上篇專欄文章中猜測說,「隨著語言的獲得,我們能夠產生更複雜的物理直覺和心理直覺」。簡單說就是,會說話的人對物質世界和人類都有更複雜的理解。證據似乎在生活中俯拾皆是,那麼問題就是,how?特別地,如果採用AI的視角,如果一個AI是用語言來學習,那怎麼使他它學得更好?理論上的機制是什麼?

Lupyan&Bergen這篇文章,先從人的認知角度給出了一些理論解釋。

語言如何讓人更聰明?

第一,它使我們的學習過程不限於簡單的強化學習,而是可以直接傳遞最佳policy。文中舉了個例子:泰國南部人們會訓練猴子爬椰子樹上,把椰子從莖上旋轉擰下來……整個訓練需要好幾個月,猴子一步一步學習每個動作。但人呢?你就告訴我上面這個指令,我就立刻可以做到(當然前提是我已經是爬樹高手);除了直接傳遞policy,feedback也可以豐富很多(「爬高點兒再摘!向左擰不要向右!」)。在機器學習中,「課程學習」curriculum learning與此比較類似,只不過目前大多是針對某個特殊項目用特殊語言給出curriculum,比如neural program interpretor那篇文章。

第二,語言不僅是把現實世界map到概念空間,更能創造有用的新概念,或者幫助你把概念集中在任務相關的維度上(降維咯)。比如「左-右」的概念;比如你可能從未在生活中見過「17」,但是這個概念卻很容易想像和溝通。更抽象的如「相同、不同、相似而不同」……我們日常的語言溝通中充滿了這些概念,不斷指導我們如何分配注意力,忽略哪些維度,等等。

第三,語言和其它感知過程緊密相連,有全局性的影響。比如你跟我說「你爸爸在這條街上等你」,馬上就會激活我大腦中「爸爸」的視覺圖像,同時我甚至可能在想像我爸爸會用什麼姿勢站著;如果我還知道,「我爸今天穿了件翠綠翠綠的衣服」(which never happend……),那麼我的注意力會馬上集中在「綠色」上進行搜索。

第二點和第三點在機器學習中都幾乎完全沒有體現,主要是因為大部分AI都極其專精於某些任務,不同的感官沒有打通,在特定的任務中「簡化概念」也已經不需要(已經hard-coded)。可以想見,如果希望機器能快速學習多種新任務,「語言指導」會有幫助——如果是和人相關的快速學習,最好還是用人類語言。

怎麼讓機器學會人類語言?

除了自然語言學慣用大量語言樣本硬懟的方法,另一個思路是在更確定的環境,讓機器不光能「輸入-輸出」語言(seq2seq),而且真正理解各個composite概念。在Mikolov et al的文章中他們暢想了一個類似於RL走迷宮拿獎勵的環境,但agent不光可以和環境交互還可以和一個「老師」交流。

實驗環境

作者腦補的對話如下:

老師:給@E指令,「I move」

學生:WR@#$!@T#$TER //學生處於嬰兒態,不懂語言。

……

老師:給@E指令,「I move」

學生:@E: fglk4$3wfgg. //學會對環境E下指令了,但指令內容不對

……

老師:給@E指令,「I move」

學生:@E:I move

E: you moved. //環境在正確的指令下給出相應

R: 1. //獲得reward

可以看到,這比一般RL困難之處在於,action space無限大。但是學生的學習材料是仔細設計的,比如老師最開始只教最簡單的口令,環境任務(reward)也是最簡單的,類似於生命之處只要你喊一聲「媽媽」,你爸媽就會無限滿足,親你抱你給你獎勵。

在此之後作者還設計了進階任務,比如把口令合在一起(「move and look」)——也就是利用了語言的compositionality;此外還要教機器主動學習(「ask me how to find an apple.」):

最終,從老師手裡畢業後,幾個及其畢業生還可以相互聊天,相互學習,共建機器文明……

這是一篇2016年的文章,不知道facebook內部後來有沒有繼續探索這條路。文章內勾勒了這樣的研究思路,具體的平台搭建、機器學習則開放給研究者們去挑戰。預測如果行的通的話,一門新的學科即將誕生:「人工智慧教育學」,專研如何給AI設計課程。

不過在此學科建立之前,另一條路是直接利用人們在成長環境中受到的教育素材去教育AI。這周上課的時候Brenden Lake提到,他正在做的一個項目就是研究如何從嬰兒的生活中提取有用的training data——是的,他們把攝像頭固定在嬰幼兒頭上,獲取他們第一視角的圖像和聲音。兒童發展心理學早就這麼做了,積累了很多數據(比如CHILDES資料庫),而人工智慧研究者或許將以全新的視角審視嬰兒們。

準備生小孩的朋友們,應從本文受到啟發。


推薦閱讀:

孩子是否越早接觸音樂越好?— 是的!
意識本質是一種實體嗎?認知是人意識對世界真相認識過程 認知哲學-生物學基礎 認知社會性-道德秩序自由意志
人腦的設計缺陷
Self-directed learning | 宋宋的讀論文筆記(week 3/26)
腦認知規律一丨懶惰是人之天性

TAG:認知科學 | 人工智慧 | 語言 |