人類是如何做到從寥寥無幾的例子里領悟「新概念」的?

人類在學習新概念時常常可以只通過一兩個例子就形成概念,但是這一點機器始終無法做到,機器通常需要數十、甚至成百上千個範例才能達到類似的精度。人類是如何做到這一點的呢?


不太了解其他領域,僅就視覺里的識別與CV方面簡單談一下我的看法,以後有時間會再補上一些文獻。

根據我的觀點,題主所說的僅靠少量例子歸納的原理在於

  1. 人腦複雜的Top-down機制。
  2. 人腦並不是靠某一個神經元表示物體分類的,特定神經元活動的pattern才表示了相應物體。
  3. 人腦IT皮層中,複雜物體被以束來表示,相似物體在IT皮層內激活的區域比較接近。

我們知道人在視網膜和大腦裡面是將視覺層級化抽象處理,從最初的center-on/off那種感受野到v1里對邊緣方向敏感、再到V4里逐漸形成shape……最後到IT皮層,實現視覺的識別這樣的高級功能。

圖1 人腦主要視覺通路

現在計算機視覺方面稀疏編碼的神經網路處理信息的模式跟人腦還是有一些相似型的。

但是,人腦簡單的從下到上,把簡單特徵通過神經網路組織起來的信息處理方式叫做bottom-up flow ,傳統計算機視覺里的卷積神經網路什麼的,基本也是一種類似bottom-up的模型。但是人腦不僅這樣向上逐層加工信息,還有複雜的Top-down機制,即從高級腦區,自上而下調節低級皮層。除記憶因素影響外還受到注意等因素的影響。對人腦Top-down機制的研究目前還比較基礎,對這個很難設計實驗。

另外的,不同於計算機的神經網路,人腦是靠特定神經元活動的圖譜來表示一個物體的,這個以前有一個很著名的「祖母細胞」,後來被證明是錯誤的。這樣特定的活動圖譜還可以聯繫記憶的因素,讓你聯想起來比較相近的物體。

同時,人腦IT皮層內比較相似的物體的colume表示是比較近的

這樣也方便吧比較相似的物體聯繫在一起。我們看到新的物體並不是像機器那樣,重新訓練一個新的模型,首先人腦低級特徵的處理是自動的,其次,人腦還可以不斷調用以前的記憶和相似的物體訓練的結果,還有複雜的Top-down機制來調控。

這些都是計算機的神經網路目前還沒有太模擬出來的部分。我覺得主要就是這些機制才使得人腦可以通過少量的例子學會一個新的物體。

上面的內容主要是以前看神經科學原理那本書看到的內容,圖片也全部來自於《神經科學原理》,有空我再針對性看看這方面的文獻,有機會我再補充補充我的回答,回答不太嚴謹的地方希望大家能指出。


說下自己的看法。

人類學習和機器學習,起點不一樣。

人類學習的起點,是一張已經成型的知識網。 當來新東西的時候,只需要找准位置,然後插入這個新的網路就可以。

而機器學習,真的是從0開始,識別特徵,識別性狀。

這是兩個完全不同的過程。相比而言,人腦學習要簡單的多。如果要比較的話,機器學習的過程相當於人類嬰兒識別第一個物體。

(待續)


不贊同。

至少在我熟悉在科研領域,要總結歸納出一個現象,科研工作者可能要看幾千份影像或者實驗數據。

例如說,普朗特自製了水槽觀察,觀察了三年才發展出邊界層理論。但是我們學習這個理論也就花了兩個小時看看錄像推推公式而已。但是為了學習這個理論我花了六年學算術,六年學方程,一年學微積分,一年學流體力學的基本方程。

或者這麼說吧,一個工程上使用的correlation一般都被數萬組實驗數據千錘百鍊過,也還會有30%的誤差。我不懂機器學習,但是我個人感覺對於機器來說或許學習過程就跟一個建模過程類似吧。

我不知道我有沒有曲解題意……歡迎指正~


很多人實際給出了答案:1,人在認知之前已經有了大量觀察的經驗,而機器是新生兒。2,不必受李同學視覺識別技術翔實闡述的影響,他說的對但不要陷進去,畢竟題目問的是為啥機器需要多個樣本學習。而是從李同學給我們提供的知識引申出人體的每個部件都是萬年億年進化而來的,這裡包含著地球生物甚至說是宇宙演化所有生存下來的模式沉澱,我們是複雜的組合體,比如肌肉的伸縮反應,神經的化學反應都是萬億次演練的結果吧。而我們通過DNA直接遺傳下來了,機器才剛剛開始,但會指數級迅速攀升的。


實際上這不難,甚至說簡單的可笑。

首先有個信號源,不管是觸覺、視覺、聽覺,總之第一步都是以電信號的形式進入大腦。

然後在大腦中層層對比、驗證,找到對應部分,向深處推進,直到找不到相同,然後創建一個新數據。

當然,一個新數據是難以理解並構成概念的,所以會保存,積攢下來,等數據收集差不多,進行一個推理,然後就能獲得概念。

如果數據收集不全,也可以推理,但是不確定性很大,而且錯誤也多。

實際上,對於人腦來說,並不判斷信息收集全面,因而人經常產生錯誤的想法。隨著信息豐富,錯誤會得到糾正。


恰好最近看了一篇經濟學人的文章,裡面有提到關於最近火熱的AlphaGo的問題。簡單說一下。

general-purpose machine intelligence還有很長的一段路要走。有一個很大的原因在於AI目前還沒有完善出「transfer learning」的思維方式,也即類比學習,通過將在一件事情或者一個領域上學到的經驗與方法轉移到另外一件事情上。比如AlphaGo的核心競爭力在於「The pattern-recognising abilities of deep-learning algorithms」,這種競爭力卻不具有人類通過類比推理來進行學習的思維方式。

類似於AlphaGo的智能,尚不能獨立的為自己設定與程序相悖一件事情的目標,無法將知識與經驗轉移,更無法認識到自身的存在。從這個意義上來說,它與word/accounting software一樣只是工具而已。


看過一篇文獻之後的讀後感。個人想法而已。

1、人之所以能舉一反三是因為對那個「一」做了分解與歸納,即理解。同樣給人和機器一張畫有自行車的圖,人會去理解這幅圖,並歸納出自行車的特點;但對於機器來說,這只是一堆像素點的排列組合,一張畫有自行車的圖和一張畫有一朵花的圖僅僅是像素排列組合的不同。但對於人來說,人可以提取更多地信息,比如形狀,結構,顏色,位置關係(圖的深度)等等。但機器目前卻很難理解(利用或者說量化)這些。機器在處理像素的能力上可能比人類快很多,但人可以綜合更多地信息去理解圖片。即機器並不能獲取圖片的所有信息(雖然對一副圖片來說,像素的排列組合就是一副圖所有的信息,但是圖的內容是需要理解的)。正因為機器不能充分理解一張圖,所以只能以量取勝,我雖然不能理解他,但是同一類東西的圖片,總歸有相同的特點,那我就去儘可能多的收集這些圖片,然後告訴機器,這是一類,你拿去總結總結他有什麼特點吧。於是,機器就去總結了。但仍舊沒有做到理解。(說理解有點要求太高,機器沒有更多地利用圖片中的信息)

2、但理解一幅圖也是需要先驗知識的,比如同一副漫畫,有的人能get到笑點,有的人get不到。get不到的人向get到的人學習之後理解了,於是下一次看類似的漫畫就笑了。由此可見,學習是一直在進行與完善的。學習是一個過程

還是就文獻中figA平衡車來說,人看一眼就能分辨了,因為人對它的結構進行了分解與歸納(個人認為的),分解出輪子,踏板,桿,車把。但是,這些東西,機器是不知道的,人為什麼知道呢?是因為人在以前就學習了,人可能在第一次見自行車的時候知道了什麼是輪子,什麼是車把;在第一次玩兒滑板車的時候知道了什麼是踏板和桿。於是,人輕鬆的分解除了這些東西,並記住了在平衡車上這幾個部分是怎麼組合的。於是,理解了平衡車。但是機器並不知道,機器並沒有學過自行車和滑板車,任何學習演算法接觸到的每一批數據,都是一批新的數據。都相當於一個未開智的嬰兒在學習。這樣來說,人並非是需要少量樣本就OK,只是人有時間和記憶的優勢,隨著時間推演記憶累積,樣本量也是很多的。只不過在樣本量的基礎上,人比機器的優勢還在於人可以去理解事物,而理解的過程在我看來是(以視覺為例)確定目標、目標分解(邊緣檢測,色塊分區等)與提取特徵、組合、歸納的過程;但我們希望演算法的應用是具體的有特定方向的,這就表示機器不能和人一樣過自己的一生,即不能學習各種各樣的例子,而只是學習特定的某幾類例子。這樣,在某種程度上也限制了機器的學習能力。


噢看即 哦哦咯哦喔mkiiiuiìglikktwrtiohujkkulo


機器有理解概念的能力嗎?舉個例子。


潛水在知乎裡面這麼久....第一答就獻給機器學習吧 只希望能有更多的人知道機器學習(Machine Learning)

謹代表自己的觀點。

其實題主所說的把一般事物抽象成概念,如果我理解的沒問題的話 在機器學習中 是靠將低維度的數據映射到高維實現的。 也就是說 機器學習 學習到的就是概念。比如卷積神經網路中 底層的一般學習到的是邊角等細節 到了高層 學習到的就是抽象出來的東西了 而這些東西可能並不能被人類理解 但是確實有效。

對於第二個問題 我理解的 可以歸為泛化性。我身邊有很多朋友,將機器學習和大數據聯繫起來 認為機器學習是靠大量樣本的完成學習的。其實如果有很多樣本 統計 大概是個很好很準確的辦法吧。。。哈哈哈 蒙特卡羅方法的感覺嘛~~ 而機器學習解決的 正是如何在樣本有限的情況下 得到一個相對更合理正確率更高的結果。例子嘛 有Tube上面有一個不記得是劍橋還是牛津做出來的 學習倒立擺(Inverted Pendulum) 從什麼都不會 到完全學會 總共14秒 比人類要快得多吧~

總之 把機器學習的產物 當人類來理解 就很容易了(單指思維之類的方面) @沒有姓也沒有名 說的 我覺得是很有道理的 在理解機器學習產物之前 把人類理解清楚 是有必要的。而用以前老舊的知識去揣測機器學習 也不太合適。


機器人已經能問出這種問題了?


求所引用的《神經科學原理》版本,謝謝!——找到了,Kandel et al. 2013 Principles of Neural Science 5th


這是因為新概念與原有概念映射到的樣本空間結構的表達是相同的。人腦在學習其它概念時已經學習出了這些樣本空間的表達。深度學習的representation learning有點兒類似這個過程,比如已經通過數十萬人臉識別建立了人臉的視覺表達,然後學習禿頂這個新概念就很容易,可能幾個樣本就夠。


假如把人腦當作特殊的計算機,那麼人腦在接觸、學習你所說的一兩個例子之前,已經經過了起碼三年以上,只要在清醒狀態下就沒有停過的無數範例的訓練。

此外,人腦的實際能力,強於如今的機器學習模擬的神經網路的能力。

人工智慧之路,任重而道遠吶。


當寶寶第一次看見紅色時,紅的感覺是從哪裡來的?有誰教他嗎?

你還記得盲人摸象,無論怎麼摸,都不會有看見大象的體驗。

無論盲人的耳朵多麼靈,無論你描述的多麼詳細,人家還是沒有看見大象的體驗。

要解答以上困惑,方法是有,只是大多數人不信。

所以,你的問題,不會有答案。

正如認知科學不會有結果是一樣一樣的。


因為有一隻大大的美洲豹跑出了動物園


推薦閱讀:

磷脂醯絲氨酸是否有效?是否有副作用?
中國在目前的腦科學研究上做出了哪些投入?相比歐美而言研究環境如何?
我們是如何判斷一段旋律是「悲傷的」或「歡快的」?

TAG:心理學 | 認知科學 | 神經科學 | 腦科學 |