Model, model告訴我,她到底在想什麼?
生命中總是充滿隱喻。我們理解世界的也經常會以類比的方式。這幾年走在人類智能科學與人工智慧的兩個世界之間,看到了很多兩者互相借鑒,互相解釋的例子。讓我想要把這些東西,以一種隨性的方式,分享出來。每篇文章都不會很長,點到為止, 願者上鉤。
那日聽伯克利的博士後Leila Wehbe講她的用自然語言演算法(NLP)解密大腦是如何加工語言的,我覺得很有趣。傳統的認知心理學研究語言加工,往往採用嚴格的控制變數的方法,讓受試聽一些人造的語句,觀察其腦區活動。 而Leila試圖研究人在加工真實的自然語言時的大腦反應。於是她把被試塞進核磁共振掃描儀,給他們看哈利波特的小說,逐詞呈現。
為了知道大腦中哪些神經元負責分析語法,哪些神經元負責分析語義,哪些神經元負責加工語言中的情感等等,她將哈利波特的語言特徵用NLP的演算法抽取出來(例, Stanford CoreNLP),其他無法自動抽取的人工標註,然後用(簡單粗暴)的回歸模型,試圖以所有這些特徵來預測受試加工一個句子的腦活動。通過這樣的方式,便可以知道不同的語言特徵(語法,語義,情感等)分別是由哪些腦區編碼的(註:雖然相關性不等於因果)。
這個時候,當然很自然的想到用循環神經網路(RNN) 來搞一下。於是她用word2vec,建立了哈利波特的語言模型(Language Mode),即給定前n個詞,可以預測第n+1個詞的NLP模型,然後用這個模型來預測大腦依次加工句子中的每一個詞的活動。本質上,就是將大腦視作一個RNN,能很好地完成語言模型的腦區,即是對語言進行加工的腦區。而那些預測地驢唇不對馬嘴的腦區,則可以認為沒有負責言語加工。
當然這還不夠。熟悉機器學習在腦神經科學的應用的人大概知道,利用核磁共振所記錄的腦活動(本質上就是一個張量),用深度學習的演算法,是可以在一定程度上重構被試當時看到的景象的。這使我們很自然地問這樣的問題,在視覺領域的結果是否可以推廣到自然語言?Leila的工作中沒有覆蓋這一實驗,我想這有可能是因為視覺領域的圖像是連續的,因此插值較為容易,而自然語言的輸出是離散的,生成起來比較困難。然而Leila做了一個我認為更有意思的研究,就是用一個人讀到一句話的腦活動去預測另一個讀到一句話的腦活動。 實現起來其實也非常簡單。她為n個人中的每一人都訓練了一個自編碼網路AutoEncoder。對於第k個網路,輸入和輸出都是第k個人加工某一句話的腦活動。訓練時這n個網路被強制共享瓶頸層編碼(code)。這使得看到小明對一句話的腦區活動,我們就可以把它映射成他和小紅共享的認知編碼,進而通過已經習得的的模型參數預測小明的腦區活動(哇~好可怕。。。)
今天就聊到這。看到越來越多的腦科學家以機器學習的思維來研究人腦,這也是人工智慧對人類智能的一種另類的貢獻罷。 來不及將對應的文章分別註解,在Leila的網站上都可以看到。http://www.cs.cmu.edu/~lwehbe/publications.html
諸位晚安。下次見。
推薦閱讀:
※第一期 | 人工智慧技術情報分享
※絕對是行李箱中的特斯拉,自動行走,自動避障!
※國內AI陷入自嗨,谷歌發現第二太陽!人工智慧找到外星人已不遠?
※利用AWS學習深度學習 For Udacity P5(第二篇:AWS 註冊)
※關於阿里雲工業大腦宣講的感想