除了深度神經網路已經實現的特性以外,大腦還有哪些特性是值得機器學習領域借鑒的?
深度神經網路本身就是借鑒大腦皮層的結果。人類大腦作為一種性能優異的天然智能系統,必然還有更多值得借鑒的地方。
受我個人的研究興趣的限制,在我看來,大腦最優秀的特性其實就表現在「臨界性」方面。我們的大腦也像沙堆、鳥群,是一直處在臨界狀態上的。這種「臨界性」同樣反映了某種「穩定性」和「可塑性」的平衡,正是通過這種平衡,我們的大腦才實現了對各種複雜情況的適應性,也是我們的大腦「通用性」的來源。而如果在更長的時間尺度上來看,這種「臨界性」可能還對應於結構的「可進化性」。我自己的研究方向與生命體系中的臨界性有關(此前關於這個主題寫過一整本電子書,《臨界:智能的設計原則》),但是老是重複一些說過的東西也沒什麼意思,所以這個回答里我儘可能從這個角度切入談幾個我們最近正在考慮的問題,拋磚引玉,歡迎朋友們就相關問題跟我們交流。
(1)更好的通用性和穩定性
正如 @Mon1st 所提到的那樣,大腦的學習很多都只是小樣本學習,大腦是從小樣本中學到儘可能多的信息的?這是一個很值得考慮的問題。除此以外,我們還希望學到的信息儘可能穩定,即我們不希望因為學習的集合(尤其是數據量較少時)有細微的差別,就導致學習的結果產生巨大的差異。而這兩個問題的答案很可能是同一個。
我們這種做統計物理的人,一直覺得「臨界」應該是解決這個問題的關鍵。換句話說,在學習的時候,系統會自動地朝著最「通用」的方向去推廣這些從較少的數據中學到的東西。從統計物理的角度來思考問題,「臨界」對應於「磁化率」最大,而「磁化率」是配分函數對數的二階導數,對應到統計學習問題中,「磁化率」對應於 log-likelihood 的二階導數——即 Fisher 信息最大化。換句話說,最通用的系統應該是 Fisher 信息最大化最大化的系統。當然,從技術的角度而言,最大化 Fisher 信息並不困難,現在也已經有一些嘗試(https://arxiv.org/abs/1603.03685),並且,在信息幾何中,Fisher 信息矩陣可以作為一個度規(Fisher information metric),因此學習問題很可能可以視作在信息空間中沿著測地線的運動。這一數學圖像也很可能應用於 @張凌祺 所提到的 Bayesian 推斷問題,因為在 Bayesian 推斷中,Fisher 信息對應於 Jeffreys prior。但儘管可能可以建構這些數學(或者物理的)描述,我們還不(完全)清楚這種機制在生物界是怎樣實現的,我們相信這與大腦的臨界性有關(Neuronal avalanche),但神經怎樣可以通過一些局部的相互作用,在較少的時間內完全這樣的運算仍然不清楚。
(2)更易於訓練的神經網路
不是所有的神經網路都易於訓練。在進行梯度下降的時候,因為參考的僅僅是局部的信息,所以在訓練中,我們不能確保最終參數的取值 θ 取得最優,尤其在高維的情況下更是如此,常常可能出現的是能量被優化到了某個局部極小值。但這跟生物體系就是非常不同的。不同尺度下的很多生物體系不但能實現這些最小化,並且能很快地實現這些最小化,甚至還可以在有一定的雜訊條件下實現這種最小化。這種「在有一定的雜訊條件下實現最小化」的特性與近年深度神經網路訓練中的「隨機梯度下降」有些相似。定量刻畫「在某一神經網路結構上的(隨機)損失極小化是容易進行的」這一特性於是就成為了一個有挑戰性的問題,這將可能為我們設計神經網路(拓撲以及權重)提供重要的指導。這個問題與自旋玻璃理論有關(https://arxiv.org/abs/1412.0233),一個優化的、容易進行損失極小化的網路很可能對應於阻挫(frustration)最小化的問題。這似乎啟發我們將神經網路結構設計的問題與某種最優匹配問題對應起來,然而這樣的匹配問題(如 k-SAT 問題,k&>2)是 NP 完備問題,怎樣受到生物體系的啟發,儘可能有效地(近似)解決這樣的 NP 完備問題會是一個有挑戰性的問題。
(3)網路的生長、幾何結構和層級性。
這個問題隨著近年來 3D 列印技術的進步,近年來得到了很多關注。一方面,科學家們發現,3D 列印的大腦在膨脹的過程中形成的褶皺不僅和真正的大腦溝回形狀相似,就連出現的時序也十分符合大腦的發育過程(參見:大腦上的溝,擠擠就有了?);另一方面,又有文章表明,僅憑藉大腦溝回的幾何結構,我們就可能重現大腦連接組在大腦不同區域的網路特性(包括平均度、聚集係數路徑長度等)。把這兩個研究綜合在一起,我們很可能就快要理解大腦的神經網路發育的過程,並可能可以真正理解大腦中模塊化、層級化的結構形成的真正原因。- Henderson J A, Robinson P A. Relations between the geometry of cortical gyrification and white-matter network architecture[J]. Brain connectivity, 2014, 4(2): 112-130.
- Roberts J A, Perry A, Lord A R, et al. The contribution of geometry to the human connectome[J]. Neuroimage, 2016, 124: 379-393.
(4)「循環」的問題。
我們的神經網路中還存在著許多的反饋,怎樣處理這樣的問題,(作為一個統計物理學家)其實我們現在仍然是不清楚的。這跟其它神經網路的問題非常不同,似乎還需要理論方面的某種突破才能讓我們徹底理解這樣的問題。儘管在實踐中,有 RNN, LSTM 等網路可以幫助我們解決一些問題,但統計物理學屆現在對神經網路很多的理解都仍然基於 Boltzmann 機,寫出相應的能量函數來,然而在不能抽象為 Boltzmann 機的情況下,怎樣對這些問題進行刻畫,我們其實還是不清楚的。如果還是從統計物理的角度來看,一個可能的思路就是,把 RNN 問題中的「能量函數」變成一個隨時間改變的函數,而這種隨時間改變的性質可能會讓我們想到非平衡統計物理,但這可能又不是一個簡單的問題了。但這些問題又恰好非常重要。如 @張凌祺 提到的視覺中的反饋問題,「反饋」之所以重要,就是因為視網膜的信號輸入以及視覺信號的處理似乎並不能成為某種「意識」,只有當我們可以意識到我們本身正在觀看時,「意識」才真正得以產生。這一想法看似只是某種哲學的理念,但其實已有神經生物學家對此進行了實驗研究,對於一些大腦損傷的患者,在他們面前展示一些東西,他們並不能意識到自己正在觀看,但如果在他們的眼前給他們來一拳,他們卻可以馬上躲開攻擊(這個例子來源於趙思家《大腦使用指南》),這意味著大腦結構的破壞的確可能讓某些與類似於「自指」和「迭代」的過程無法進行。怎樣處理這些問題,很可能是物理學家需要仔細考慮的。我們知道人腦做很多機器做不到的事情,怎麼做到的還不清楚。實際上準確描述人腦在哪些方面仍勝於機器是困難的(不是因為這樣的方面少,而是難在描述準確而有指導意義)。這裡舉幾個例子,拋磚引玉:
單次學習 One shot learning:很多情況下只需要一次經歷就可以學到新的遊戲/概念。
小樣本學習 Small sample size: 人腦所需的樣本,訓練時間(尤其是考慮到神經活動的速率比起晶元低很多)都遠小於深度學習。
層級運動計劃 Hierarchical motor planning: 在運動輸出方面現在的機器學習仍傾向於把整個網路作為一個視覺網,然後把狀態對應到運動輸出。人的運動則是有層級組織的。
基於知識的識別 Knowledge/Inference based vision (or learning in general): 即使在機器學習大獲成功的視覺領域,仍有一些非常困難的問題。比如下面這張圖片:
這個例子是Josh Tenenbaum在一次演講中給出的。
每張圖片中有多少個人呢?即使在今天,即使在視覺領域,仍然有像這樣人類可以輕鬆回答,機器則無力回答的問題。機器學習對觀念和物理模型的學習才剛剛起步 [1]。這一能力與單次學習似乎緊密相關。
-
另外,在組織上, 大腦有非常複雜的神經元結構,大量的神經元類型,和為數眾多的神經調節劑。相比之下,神經網路中的單元則簡單和均一。為什麼這麼複雜?學界有一些想法(比如C Bargmann),但總得來說我覺得是一個謎。
[1] Lake, B., Salakhutdinov, R., and Tenenbaum, J. B. (2015). Science 350(6266), 1332-1338. doi: 10.1126/science.aab3050以下很多觀點都是屬於猜想性質的,問題本身也沒有明確的定義,但都屬於很有意思的探索方向。
==================================
1.反饋連接, 自上而下的信息處理(Feedback connections, top-down processing) 例如在視覺皮層中就存在著大量的反饋連接。卷積神經網路(CNN) 實際上只描述了在視覺腹側通路(Visual ventral stream) 在0-100ms左右的前饋處理(Feedforward processing)。但是整個視覺感知的過程需要例如注意(Attention), 期望(Expectation) 等反饋機制。這樣的前饋和反饋共同作用的方式也符合貝葉斯推斷(Bayesian inference) 和預測編碼(Predictive coding) 的框架。在神經科學和心理學中有很多對於Top-down處理方式的討論,在計算機視覺/機器學習中的對應則是Generative Model, 近期的GAN, VAE等都是很有意思的工作,也包括DeepMind之前的RAM(Recurrent Attention Model)。期待看到兩方面工作的進一步的融合。這兩篇都是神經科學角度出發對於這個問題的討論。
http://rstb.royalsocietypublishing.org/content/360/1456/815https://www.ncbi.nlm.nih.gov/pubmed/20493206
2.層級結構(Hierarchical structure)
層級結構不單單在視覺信息處理中有很重要的作用,而是一個非常廣泛的的利用Compositionality來處理複雜表徵的方式。(例如CNN也可以拿來處理語音數據,層級堆疊的LSTM對於許多NLP的任務都有好的效果)。另外,在更複雜的知識表徵層面(Knowledge representation) 層面,我們也可能具有某種複雜的層級結構。這可以聯繫到 @Mon1st 所提到的One short learning 或者 Small sample size的問題。不過這兩個問題應該都屬於更加認知層面的問題(在已經形成了合適的表徵,如何generalize到新的任務),而Deep learning的學習過程更好的對應則是Perceptual learning(如何發現和形成好的表徵),後者也是一個需要大量訓練的過程。
關於這一點的討論,下面兩篇文章都很有意思。
https://arxiv.org/abs/1604.00289http://science.sciencemag.org/content/350/6266/1332在決策(Decision making), 運動控制(Motor control), 執行功能(Executive function)方面,層級結構可以使得複雜的行為建立在更小的控制單元上,不但可以很好的解決高維空間的Scaling problem, 也使得習得的經驗具有很好的遷移學習(Transfer learning)的特性(更廣泛的來說,層級結構都會具有更好的遷移學習的特性),從而實現更穩定的Exploration和Exploitation的平衡。這也是為什麼機器學習和神經科學領域都非常關注Hierarchical reinforcement learning(HRL)的原因。行為層面上,我們有大量的證據說明人類行為是以某種層級結構組織在一起的,但是我們不知道底層神經實現,特別是學習的機制是什麼。
這篇文章是從神經科學角度出發的一個綜述文章:
https://www.ncbi.nlm.nih.gov/pubmed/18926527而RL領域最近也有很多工作開始嘗試解決這個問題:
https://arxiv.org/abs/1604.06057DeepMind在幾天前上傳的工作:https://arxiv.org/abs/1610.05182(這篇文章採用了一個兩級的HRL的結構,一些底層的通過預訓練設置的"sensorimotor primitives",和一個高層的"cortical" network)。原文abstract: "雖然整塊的end-to-end的結構徹底失敗, 通過預先訓練的模塊來進行學習成果的解決了很多高層的任務,並且實現了從稀疏的回報(reward)中學習所需要的有效的探索(exploration)"。不同複雜程度的控制系統其實也屬於某種層面上的層級結構。例如我們有習慣導向(Habitual)的控制方式(Model-free RL), 而面對複雜問題的時候就會切換到更加靈活的目標導向的(Goal-directed)控制(Model-based RL, cognitive control)。同樣的,機器人系統中也需要在不同時間和任務尺度的系統共同工作(High-level planning, low-level planning(navigation), actuator execution)。
3.基因的作用(Genetic prior)
有一些機器學習的研究者認為直接對比人類和機器的學習能力是不合理的,因為通過進化的方式,我們可能有著一些非常有效的,由基因編碼的Prior (或者叫Heuristic),從而極大的簡化了後期的的學習任務。那麼從機器學習的角度來看,如何可以找到這些高效的Heuristic,會是一個非常有意思的問題。這個觀點在https://arxiv.org/abs/1604.00289 中的"Developmental start-up software"中有討論。==================================
上面提到的三個觀點主要是從認知科學的角度出發。從AI的角度來看,很多時候我們不需要關心神經系統到底是怎麼實現某個功能的,而只需要從行為的角度觀察就可以得到啟發。從Marr的三個層次來說, AI與腦科學更多的交叉是在行為/計算層面(Computational)和演算法層面(Algorithm), 而非接下去的實現層面(Implementation)。但神經系統依然在一些方面可能會對機器學習有啟發:4.樹突計算(Dendritic computation)
從硬體設計的角度來看,通用的電路在特定任務上的性能/功耗表現肯定不及專門為相應任務設計的專有電路。而神經系統可以看作是由進化過程所尋找到的對特定任務的最優實現。突觸計算是一個非常優美的,說明神經元如何巧妙的利用其自身的物理特性來實現某個特定的計算任務的例子。所以對於硬體電路的設計者來說,或許關注單個神經元的特性,可以比網路的角度獲得更多的啟發。https://www.ncbi.nlm.nih.gov/pubmed/160333245.神經系統對於網路訓練和貝葉斯推斷的實現
Biological plausible implementation of Backprop Bayesian inference如果大腦真的實現了某種形式的神經網路訓練或者貝葉斯推斷,那麼理解它們的實現機制可能會極大的推動這兩個計算上非常困難的問題的解決。這個觀點在 Frontiers | Toward an Integration of Deep Learning and Neuroscience 有大量闡述。===================================還有一些其它零碎的點,例如整個developmental階段其實可以看作一個大規模的學習過程,大腦中不同功能分區之間的交互,都是非常有意思的問題。目前對於這兩個方面了解的還是太少,或許有熟悉這方面的同學可以給出一些討論。正好最近一篇高屋建瓴的神經科學論文就展現了這方面的野心,企圖連接現有的神經科學與深度學習領域,不過相比於借鑒神經科學來推進深度學習,它更偏向希望由深度學習反哺神經科學:
Toward an Integration of Deep Learning and Neuroscience
http://biorxiv.org/content/early/2016/06/13/058545
為了達到這個野心,論文提出了三個核心假設:- 深度學習主要是通過優化cost function取得成功,而我們的大腦中可能也有某種優化cost functioon的機制;
- 在深度學習最近的發展中,出現了很多非單一的cost function,比如Inception模型中從比較底部的卷積層額外接出一個分類器做為一個loss項,而我們的大腦中可能也存在多樣化的cost function,或者是各自在不同場景下發揮不同的作用,或者是在某些場景下協同發揮作用,來調整神經元的連接;
- 深度學習中湧現出的各種網路結構,可能可以在我們大腦的實際物理結構中找到對應的部分。
論文全篇圍繞這三點假設,同時結合了一大票深度學習的前沿工作和神經科學的經典工作(怎麼突然覺得這句話好黑……嗯,一定是錯覺),比較不嚴謹地展開論述。We hypothesize that (1) the brain optimizes cost functions, (2) the cost functions are diverse and differ across brain locations and over development, and (3) optimization operates within a pre-structured architecture matched to the computational problems posed by behavior.
比如說在多種形式數據融合的基礎上對物理世界的綜合理解。
圖像識別方向有一個梗,目前人工智慧的最大挑戰在於分辨曲奇餅和小狗(不記得叫什麼名字了?( ′Д`)?)。
更重要的是因為我們對於所識別的物體有更高層次的認識。我們所看到的不僅僅是這樣一個角度的小狗圖片,我們知道它在真實世界的樣子,或者說我們有一個整體的認知,我們知道它們的叫聲,知道它們的動作,知道關於狗狗的很多故事,我們有如此多的額外信息輔助,故而我們的識別相當容易。
假如我們不知道這些,比如說給你兩種雜訊的時序圖,非專業人士估計就很難區分了,這時候機器和人的水平就差不多了。說幾個我理解的,非科班,DL業餘愛好者。對DL有一些初步了解,也看過一點神經解剖學,認知神經科學。1,注意力機制(現在已經實現了,當然還需要改進)。注意力機制能夠更迅速有效的發現數據中的規律。2,優秀的聚類能力。現在大部分學習都是給定label,學習分類,然而人腦的學習更加傾向於:無需label即可對輸入進行聚類,最後給定label只是在已經聚類好的高級特徵和label之間建立聯繫,從而讓學習變得無比簡單和高效。3,不同記憶力分離。人腦有短期記憶,長期記憶,工作記憶,情感記憶(物理上的分離,不同的腦區結構對應不同的能力)。當一個人進行一項任務的時候,會根據最近輸入激活不同的記憶,從而更好的處理任務。(似乎也已經有這方面工作了,把rnn和外部記憶結合)4,自動調整超參。大腦本身可以看作一個超級寬超級深(相對目前的深度網路)的rnn網路,大腦總能夠學會用一部分結構學習特定知識,用另一部分結構學習另一些知識,這得益於大腦中擁有大量抑制作用的神經細胞(大腦中抑制性細胞是興奮性細胞的數倍)。試想我們什麼時候可以用單獨一個超級寬超級深的的網路來學習各種不同的任務?5,網路同步。現在的RNN本質都是FNN加上層之間的權值共享,然而大腦本身應該是類似於深度hopfield網路,並加入抑制機制,一層把信息處理完成之後再輸入下一層。hopfield網路相比RNN最大的好處是深度不再是固定的。從而可以處理任意不同長度的序列輸入(當然也不能太長了)。另一方面,不同網路結構之間也會通過網路同步互相等待,等低級信息處理完成之後再一起進入下一層。6,多網路協同工作。人腦通過進化天生就擁有了一個及其複雜的網路結構,不同的結構天生對某一類任務具有專門的優勢。整個大腦是各種各樣網路的集合。事實上,我覺得現在已經可以開始往這個方向邁進了。世間一切任務本質上都是預測任務,而現在DL其實在不同領域已經做得都很優秀甚至超過人類了。缺少的就是能夠把各種網路整合起來並且能夠協同工作的框架。7,網路學習方式。目前DL基本上都是用BP更新權值。人腦應該更傾向於基於「同時激活則增加權重」的方式來更新的。也許這種方式更新權重更快,對資源消耗更少。
感謝,對於我們專業知識我一直保持著敬畏的態度,我就拋個磚然後引出各位老師的玉。
大概在兩年前,深度學習將要迎來爆發期時,那時候聽過一個醫學院的講座,主要內容說是在美國七八十年代,生物學家、醫學專家以及晶元製造專家做了一項工程:他們認為既然我們無法直接模仿大腦,那麼我們可以直接利用晶元製造技術中的電路關係模擬大腦的神經元的連接,具體做法是將一份大腦不斷細分切片,然後用單晶硅模擬上面的神經細胞分布,之後在縱向一層層拼接。但是由於當時晶元製造技術並不完善,這就導致要模擬僅僅一片大腦都需要很久的時間和很大面積的單晶矽片。最後項目也就不了了之。講這件事的意思是,目前人腦的信息分析、存儲、強化、遷移以及其他高級能力的機制,我們知之甚少,更不又說獲得更大的人工智慧上的突破。
而真正從2012年的暗涌到2014年人工智慧的熱潮噴薄,甚至到現在各類CV、文本分析以及各類高級應用得以實現,大多數都依託於數學模型的不斷深化以及高級計算硬體的能力保障。大多數能夠確信的一件事,就是我們很多模型的靈感來自於對於數學理論的深入研究,而並非解剖學的進步。
這麼說,並非否定大腦研究對於深度學習所能產生的作用,如果某種人腦機制能夠帶來新的模型方式,那麼對於人工智慧的貢獻又將是一次質變。(第一次的感知器在多年以後迎來了爆發)說點個人的體會,受到attention模型的啟發,每次使用CNN的時候都相當於滑窗從左上角一次遍歷,但是實際上我們人眼感測器是不需要將圖片信息依次遍歷的,反而會去關注與視野中比較特殊的物體,不僅僅是人類,很多動物都有這樣的機制。所以個人在思考怎麼能夠快速確定分析的物體對象;然而昨天在看一張1024*1024的遙感圖片時,任務是需要分析出某架飛機的位置,飛機大小大概是12*12,那麼這時候人眼睛的attention就基本失效了,可能真比不過計算機的滑窗遍歷。個人的想法就是,是否我們人腦在處理數據時候有一些我們比較先進的機制?(另一個比較有意思的機制就是昆蟲類的複眼機制)
期待更有意思的答案~~SCP-173哈哈 現在所有的機器學習演算法只是幼兒的腳踏車,而我們的大腦是高配法拉利,根本沒可比性。
深度學習只是試圖模仿了一些神經系統的機制而已。和大腦比差得遠。
你這個問題半身就不太好回答。因為我們對大腦心智了解的其實還非常少。心智太複雜了,越想越細思恐極。看了一下答案,我認為缺少了一個重要的特性:
動態連接
大腦(或者說神經系統)的連接不是一成不變的,在許多地方,連接是在動態變化的,並且可以有效的進行噪音抑制,提高信號的鑒別能力。
現代的人工神經網路,不管是何種,其節點連接都是固定。如何在人工神經網路實現動態連接,使其可以自發的激活/抑制某一個甚至某一區域的神經元目前尚無明確的理論建樹。複雜的功能性網路是如何生長的。我們在試圖建立能完成複雜工作的人工神經網路的時候,不妨想想,為什麼人腦可以做到天然的通過學習就可以集成這麼多複雜功能?
現行所謂的深度學習不過是利用計算機跑複雜的神經網路模型而已,和真正的腦科學相差甚遠。
個人覺得大腦獨特的存儲和編碼方式是很值得研究借鑒的。長短期記憶方式是普遍接受的大腦記憶形式,短期記憶和長期記憶是以怎樣的方式存在大腦皮層中,以方便其快速組合,轉化和提取的?可以肯定的是,一定有某種索引機制起作用,而且索引方式類似於鏈表,因為記憶是相互關聯的,我們想到一件事的時候,往往會聯想到另一件事,接著是下一件事…記憶的組合,轉化和提取取決於它的編碼方式,而對於人腦信息的編碼方式我們還所知甚少,它的高效和快速性是現有的各種編碼技術所遠不能及的,那它一定有特別之處。這段時間在看心理學旋轉(mental rotation),簡單說就是大腦旋轉物體的能力。這是上世紀70年代提出的學說,而直到現在我們都還在討論它的建模問題。說明研究的難度之大,而視覺信息的編碼,視覺表示的旋轉和匹配是其中的難點。神經學研究將是智能機器演算法進步的基礎,各個領域智慧的積累和相互碰撞才能迸發科技進步的火花。
一直對人工智慧有興趣。談幾點自己的感覺。1.人類的輸入器官是在大量背景噪音環境下訓練的,所以相比實驗室的環境下的生成物,天生具有額外的抗干擾能力,普適能力。2。輸出神經必然和輸入有反饋,甚至不排除這是自我意識的本源
人的直覺,根本沒辦法用機器模擬。
時效性、先驗性和自由意志
膠質細胞
遷移學習
靈魂阿賴耶識 人工智慧自我意識與情感 感知理解反思處境行為 學習記憶推理建模 博弈非完整信息 盲人畫家
靈魂阿賴耶識 人工智慧自我意識與情感 感知理解反思處境行為 學習記憶推理建模 博弈非完整信息 盲人畫家
西安交通大學教授鄭南寧:人工智慧的下一步是什麼?―中國教育和科研計算機網CERNET
西安交通大學教授鄭南寧:人工智慧的下一步是什麼?
2016-12-15 中國教育網路
院士談信息領域的顛覆性技術
編者按:
10月25~26日,「國際工程科技發展戰略高端論壇——信息領域的顛覆性技術」在西安開幕,百餘名國內外院士、專家出席,現場聽眾近700人。本次論壇的主題是「信息領域的顛覆性技術」。論壇由中國工程院主辦,西安交通大學、中國工程院信息與電子工程學部共同承辦,是中國工程院信息學部最重要的年度學術活動。本屆論壇設置主題演講、分論壇兩大環節,26位專家將各自研究領域所獲得的傑出成就發表演講,研究範圍涉及人工智慧、認知計算、人機交互、雲計算、知識自動化、機器人、大數據、虛擬現實、集成電路、高性能計算、空天一體化信息網路、計量檢測等領域。擷取部分與會嘉賓的精彩觀點與讀者一起分享。
鄭南寧:人工智慧的下一步是什麼?
鄭南寧:中國工程院院士、西安交通大學電信學院教授
隨著2006年Hinton等人提出深度學習概念,人工智慧研究進入了嶄新的發展時期,也不斷地影響、推進著相關眾多產業、行業的快速發展。人工智慧「精彩回歸」,重新受到學術界、產業界等社會各界的廣泛關注。
人工智慧是研究人類智能活動的規律,構造具有一定智能的人工系統,使機器能夠像人一樣思維和認知。當前人工智慧的研究前沿之一是如何實現由完整信息到非完整信息的處理,構建更加健壯的人工智慧,使人工智慧系統對用戶錯誤、目標偏差、錯誤模型以及未建模對象具有更好的適應性。無人駕駛就是一種典型的非完整信息處理問題。
由於我們不可能為所有的問題建模,「未知的未知」問題對構建穩健的人工智慧系統提出了挑戰。為了設計更加健壯的人工智慧,需要採用穩健優化、學習因果模型和組合模型等方法來提高人工智慧建模問題的穩健性。
要設計更加健壯的人工智慧,首先要提升對於模型錯誤的穩健性,對風險敏感的目標進行優化,採用穩健推理的演算法,如採取謹慎的策略提升應對建模錯誤情況下的魯棒性;其次,需提升對於為建模問題的穩健性,擴充模型、學習因果模型、採用組合模型監測模型表現以檢測異常等。
從人工智慧的研究來看,我們長期以來堅持兩個目的:一是如何使機器更加聰明,二是如何用機器模擬人的智能,同時能夠發展出更聰明的機器幫助人類更好地發展。從人的角度來思考,建立一種智能系統需要以下基本的因素:它必須要適應我們的世界,要具備學習的能力,同時需要有記憶能力,在學習記憶的基礎上完成推理,另外在推理的過程中還必須建立一種因果模型。
直覺推理可以看成兩個方面:一個是物理層面的推理,就是可以跨越時間尺度給出判斷和情景演變的過程;另一個是心理層面的推理。無人駕駛車事故的例子,說明無人駕駛車是在非完整信息下出現的問題。如何在不完整信息下讓機器做出正確判斷,使得機器具有推理和自主學習的能力,這樣的過程是健壯的人工智慧能夠實現的。
人的認知過程,在很多場合下是從全局到局部的,在大量先進知識的前提下,往往是一種自上而下的過程。我們做了一個讓計算機實現對人體運動進行分析的實驗,並選擇了樂團的指揮。樂團的指揮實際上是樂團的靈魂,在樂團演出中每一個人都要按照指揮的動作把曲子用自己演奏的樂器表達出來。通過身上的標記點把指揮的動作通過攝像機模擬出來,把一個指揮家的動作合成以後,我們讓機器來指揮。
人工智慧是一門綜合性的前沿學科和交叉學科,其發展與信息科學、認知科學、神經生物學、心理學、數學等學科深度融合。發展人工智慧要做到「兩手抓」,即一方面要踏踏實實積極推進人工智慧的基礎理論研究,另一方面要重視人工智慧在重大學科領域和重大工程中的實踐應用。開展科學研究的目的是造福人類,但在歷史進程中,科學技術也曾被別有用心者利用而阻礙了社會發展,甚至給人類帶來災難。
實現類人水平的人工智慧還需要迎接哪些挑戰?一是如何讓機器在沒有人類的幫助下學習,二是如何讓機器像人類一樣感知和理解世界,三是如何讓機器具有自我意識、情感以及反思自身處境與行為的能力。使機器具有自我意識和反思能力是類人智慧最難的挑戰,無論對科學和哲學來說,這都是一個引人入勝的探索領域。
未來三十年,人工智慧將在計算能力、人工智慧系統等方面催生顛覆性技術,其研究成果將在社會管理、國防、生命健康、金融、能源、農業、工業等眾多領域大放光彩,人工智慧也將迎來新的發展高潮。未來,人工智慧將滲透到人們生活中的各個角落,成為人們生活中不可或缺的組成部分。
(本文根據鄭南寧在「國際工程科技發展戰略高端論壇」上的講話整理,未經本人確認)
=-===========================================================================
中國工程院院士鄭南寧:人工智慧發展應明確方向
中國工程院院士鄭南寧:人工智慧發展應明確方向_人工智慧,機器,挑戰,智能製造及工業4.0-中國智能製造網
2016年06月21日 11:32:28中國智能製造網人氣:30906
【中國智能製造網 名家論談】不久前,圍棋軟體「阿爾法圍棋」戰勝圍棋世界冠軍李世石,讓人們驚嘆人工智慧發展取得的成就。這是否意味著機器即將獲得類人智能呢?現在得出這樣的結論還為時過早,但確實需要思考人工智慧的發展方向問題。
中國工程院院士鄭南寧:人工智慧發展應明確方向
當前,人工智慧在發展中面臨三大挑戰。
第一大挑戰是讓機器在沒有人類教師的幫助下學習。人類的很多學習是隱性學習,即根據以前學到的知識進行邏輯推理,以掌握新的知識。然而,目前的計算機並沒有這種能力。
迄今為止,最成功的機器學習方式被稱為「監督式學習」。與老師教幼兒園孩子識字一樣,機器在每次學習一項新技能時,基本上都要從頭開始,需要人類在很大程度上參與機器的學習過程。要達到人類水平的智能,機器需要具備在沒有人類過多監督和指令的情況下進行學習的能力,或在少量樣本的基礎上完成學習。也就是說,機器無須在每次輸入新數據或者測試演算法時都從頭開始學習。
【修行人解讀 人類的學習能力依據唯識學,關鍵是阿賴耶識種子依,人類的學習能力是存在於人的整個生命體的靈命之中。後天的教育與學習,不是人類學習能力的全部,否則不能解釋莫扎特8歲就可以作曲,並且8是的作品一直流傳至今,不斷演奏而具有生命的感召力。也許隨著科學的發展,阿賴耶識的種子依,也會被人類證明。人工智慧現在只是被動的監督式學習,達不到主動地隱性學習,更談不到阿賴耶識種子的流轉】
第二個挑戰是讓機器像人類一樣感知和理解世界。觸覺、視覺和聽覺是動物物種生存所必需的能力,感知能力是智能的重要組成部分。在對自然界的感知和理解方面,人類無疑是所有生物中的佼佼者。如果能讓機器像人類一樣感知和理解世界,就能解決人工智慧研究長期面臨的規劃和推理方面的問題。雖然我們已經擁有非常出色的數據收集和演算法研發能力,利用機器對收集的數據進行推理已不是開發先進人工智慧的障礙,但這種推理能力建立在數據的基礎上,也就是說機器與感知真實世界仍有相當大的差距。如果能讓機器進一步感知真實世界,它們的表現也許會更出色。要達到人類水平的智能,機器需要具備對自然界的豐富表徵和理解能力,這是一個大問題。儘管圍棋很複雜,讓計算機在棋盤上識別最有利的落子位置也很難,但與精確地表徵自然界相比,描述圍棋對弈的狀態顯然要簡單得多,兩者之間的差距還要幾十年甚至更長時間才能彌合。
【修行人解讀 人類之所以具有感知和理解世界的能力,首先是人類文明4萬年以來發展與進化的結果。在印尼的原始森林的存在的原始部落,由於他們與現代社會存在數千年的隔絕,原始部落的人群的感知和理解的世界,就與現代社會人群感知和理解的世界大大不同,原始部落拋棄吃人的高尚習俗還是近30年的事情。
所以,對於人類為何具有的感知和理解世界的能力,是屬於人類意識與靈魂的範疇,作為科學家的院士,有此犯下凡重大失誤也是可以理解。鄭南寧,男,漢族,1952年12月生,祖籍陝西西安,出生於江蘇南京。1975年畢業於西安交通大學電機工程系;1981年西安交通大學獲工學碩士學位。畢竟院士的生活的年代與社會環境背景是那樣的。
但是院士對於人類的博弈與計謀,還是有深刻的認知。儘管圍棋很複雜,讓計算機在棋盤上識別最有利的落子位置也很難,但與精確地表徵自然界相比,描述圍棋對弈的狀態顯然要簡單得多,兩者之間的差距還要幾十年甚至更長時間才能彌合。】
第三個挑戰是讓機器具有自我意識、情感以及反思自身處境與行為的能力。這是實現類人智能最艱難的挑戰。具有自我意識以及反思自身處境與行為的能力,是人類區別於其他生物最重要、最根本的一點。另外,人類的大腦皮層能力是有限的,如果將智能機器設備與人類大腦相連接,不僅會增強人類的能力,而且會使機器產生靈感。讓機器具有自我意識、情感和反思能力,無論對科學和哲學來說,都是一個引人入勝的探索領域。
【修行人解讀 人工智慧具有人類自我意識,是完全不可能的。人類的自我意識,是因為人類與宇宙生命體是一體的。人類至今都無法解讀意識的機理,今後也解讀不了。靈命與靈魂問題,是一個遠遠超越人類本身的哲學問題,也是人類的終極問題。
世界,也許就是一個宇宙大生命的模擬的、夢幻的鏡像,宇宙的本體在哪裡呀?這是一個不是人工智慧的科學院士,可以回答的問題。】
人工智慧的發展能不斷幫助人類,但它同時也是一把「雙刃劍」。我們要警惕人工智慧給人類帶來的負面影響,關注人工智慧的發展將帶來的深刻倫理道德問題。我們需要的是幫助人類而不是代替人類的人工智慧。發展人工智慧的目的不是把機器變成人,也不是把人變成機器,而是要擴展人類的智能,解決人類社會發展面臨的重大問題。這是科學界、各國政府和人類社會在人工智慧發展上應認真對待的問題。需要確立倫理道德的約束監督機制,使人類免受人工智慧不當發展帶來的負面影響。(來源:人民日報 原標題:中國工程院院士鄭南寧:發展有助於人類的人工智慧)
文章鏈接:中國智能製造網 http://www.gkzhan.com/news/detail/88302.html
============================================================================
鄭南寧:發展強人工智慧需從腦認知和神經科學尋求啟示
鄭南寧:發展強人工智慧需從腦認知和神經科學尋求啟示-新聞-科學網
當前,人工智慧已經成為席捲社會各界的熱潮。今年7月,國務院印發了《新一代人工智慧發展規劃》,一系列支持政策和措施正在逐步推進。在日前在濟南舉辦的2017中國自動化大會上,中國工程院院士鄭南寧向記者表示,當前,人工智慧滲透到了社會各個領域,但目前來看,無論是深度學習還是其它方法,解決的都是單一問題,而人類大腦是一個多問題求解的結構,「當前急需發展強人工智慧,而這可以從腦認知和神經科學中得到啟示」。
鄭南寧指出,人類面臨的許多問題都具有不確定性、脆弱性和開放性。今天人工智慧的理論框架,建立在演繹邏輯和語義描述的基礎方法之上,但我們不可能對人類社會所有問題都進行建模,因為我們不能把一個行為的所有條件都模擬出來,這就是傳統人工智慧的局限性。
「因此,我們要建造一種更加健壯的人工智慧,需要腦認知和神經科學的啟發」,鄭南寧指出,計算機和人類大腦是為問題求解的物質基礎。在智力和計算能力方面,計算機遠遠超過了人類,但是人類面對的大部分問題都是開放的、動態的、複雜的,大腦在處理這種問題時表現出的想像和創造,還有對複雜問題的分析和描述,是傳統人工智慧方法所不能企及的,因此,我們只能從人類大腦的神經網路結構中,去獲得構造新的人工智慧的因素。
鄭南寧介紹,人類大腦非常奇妙,正是在這個物質基礎之上,才演義出人類世界的發展和為問題求解的各種方法,「大腦不是通過一個統一的、未分化的神經網路,來實現單一的全景優化學習。大腦是模塊化的,具有獨特且相互作用的系統來支持認知功能,如記憶、注意、語言和認知控制。腦認知和神經科學的研究成果,可以為解決人工智慧長期存在的規劃與推理問題提供新的方法」。
鄭南寧進一步介紹,人的大腦有800億個神經元容量。我們可以通過大腦的結構連接、功能連接和有效連接的聚合與分離來洞察大腦的認知機理,「大腦的結構連接是相對靜態的,而功能連接和有效研究則具有時空動態演化的特性。有效連接描述了神經元之間的因果與相互影響關係」。
「直覺推理、認知推理和因果模型是構建健壯的人工智慧必須考慮的基本因素」,鄭南寧最後表示。
=========================================================================
【解讀新一代人工智慧規劃】鄭南寧院士:混合增強智能——協同與認知
【解讀新一代人工智慧規劃】鄭南寧院士:混合增強智能——協同與認知
2017-08-04 16:06人工智慧/操作系統/人類
人工智慧是一種引領許多領域產生顛覆性變革的使能技術,合理並有效地利用人工智慧技術,意味著價值創造和競爭優勢。為搶抓人工智慧發展的重大戰略機遇,依託我國應用需求和市場的巨大優勢,加快建設創新型國家和世界科技強國,在黨中央、國務院統一部署和要求下,《新一代人工智慧發展規劃》(以下簡稱規劃)對我國人工智慧發展戰略做了全面部署,明確了我國人工智慧發展的總體要求及三步走的戰略目標,並將人機協同的混合增強智能作為規劃部署的五個重要方向之一。
智能機器與各類智能終端已經成為人類的伴隨者,人與智能機器的交互、混合是未來社會的發展形態。人機協同的混合增強智能是新一代人工智慧的典型特徵。
當前的人工智慧系統在不同層次都依賴大量的樣本訓練完成有監督的學習。真正的通用智能會在經驗和知識積累的基礎上靈巧地無監督學習。如果僅僅是利用各種人工智慧計算模型或演算法的簡單組合,不可能得到一個通用的人工智慧。特定領域的人工智慧系統如谷歌的Alpha Go、IBM的深藍和Watson等依賴強大的計算能力在挑戰人類智力方面取得了巨大進步,但這些系統還無法通過自身思考得到更高層次的智能,它們與具有高度自主學習能力的通用人工智慧依然存在著差距。但是,人工智慧在這些特定領域應用的巨大成功為我們研究與發展新一代人工智慧提供了重要的借鑒和新的方法。
人類面臨的許多問題具有不確定性、脆弱性和開放性,也是智能機器的服務對象和最終「價值判斷」的仲裁者,因此,人類智能與機器智能的協同是貫穿始終的。任何智能程度的機器都無法完全取代人類,這就需要將人的作用或認知模型引入到人工智慧系統中,形成混合-增強智能形態,這種形態是人工智慧或機器智能的可行的、重要的成長模式。
混合增強智能形態可分為兩種基本實現形式:人在迴路的混合增強智能,基於認知計算的混合增強智能。
一、人在迴路的混合增強智能
將人的作用引入到智能系統中,形成人在迴路的混合智能範式。在這種範式中人始終是這類智能系統的一部分,當系統中計算機的輸出置信度低時,人主動介入調整參數給出合理正確的問題求解,構成提升智能水平的反饋迴路。
把人的作用引入到智能系統的計算迴路中,可以把人對模糊、不確定問題分析與響應的高級認知機制與機器智能系統緊密耦合,使得兩者相互適應,協同工作,形成雙向的信息交流與控制,使人的感知、認知能力和計算機強大的運算和存儲能力相結合,構成「1+1&>2」的智能增強智能形態。
在當前大數據、深度學習在不同領域不斷取得突破性成果之際,更需要清楚認識到,即使為人工智慧系統提供充足、甚至無限的數據資源,也無法排除人類對它的干預。例如,面對人機交互系統中對人類語言或行為的細微差別和模糊性的理解,特別是將人工智慧技術應用於一些重大領域(如產業風險管理、醫療診斷、刑事司法、自主駕駛、社會輿情分析、智能機器人等)時,如何避免由於人工智慧技術的局限性而帶來的風險、失控甚至危害?這就需要引入人類的監督與互動,允許人參與驗證,提高智能系統的置信度,以最佳的方式利用人的知識,最優地平衡人的智力和計算機的計算能力,從而實現大規模的非完整、非結構化知識信息的處理,有效避免由於當前人工智慧技術的局限性而引發的決策風險和系統失控等問題。
二、基於認知計算的混合增強智能
在人工智慧系統中引入受生物啟發的智能計算模型,構建基於認知計算的的混合增強智能。這類混合智能是通過模仿生物大腦功能提升計算機的感知、推理和決策能力的智能軟體或硬體,以更準確地建立像人腦一樣感知、推理和響應激勵的智能計算模型,尤其是如何建立因果模型、直覺推理和聯想記憶的新計算框架。
對當前人工智慧而言,解決某些對人類來說屬於智力挑戰的問題可能是相對簡單的,但是解決對人類來說習以為常的問題卻非常困難。例如,很少有三歲的孩童能下圍棋(除非受過專門的訓練),但所有的三歲孩童都能認出自己的父母,且不需要大量經過標註的人臉數據集的訓練。人工智慧研究的重要方向之一是借鑒認知科學、計算神經科學的研究成果,使計算機通過直覺推理,經驗學習將自身引導到更高層次的。
另外,在現實世界中,人們無法為所有問題建模,這裡存在條件問題(Qualification Problem)和分支問題(Ramification Problem),即不可能枚舉出一個行為的所有先決條件,也不可能枚舉出一個行為的所有分支。而人腦對真實世界環境的理解、非完整信息的處理、複雜時空關聯的任務處理能力是當前機器學習無法比擬的,還有人的大腦神經網路結構的可塑性,以及人腦在非認知因素和認知功能之間的相互作用,它們是形式化方法難以、甚至不能描述的。人腦對於非認知因素的理解更多的來自於直覺,並受到經驗和長期知識積累的影響。人腦所具有的自然生物智能形式,為提高機器對複雜動態環境或情景的適應性,以及非完整、非結構化信息處理和自主學習能力,為構建基於認知計算的混合-增強智能提供了重要啟示。
認知計算架構可以將複雜的規劃、問題求解與感知和動作模塊相結合,有可能解釋或實現某些人類或動物行為以及他們在新的環境中學習和行動的方式,可以建立比現有程序計算量少得多的人工智慧系統。在認知計算的框架下,可以構建更加完善的大規模數據處理和更多樣化的計算平台,也可為多代理系統解決規劃和學習模型的問題,以及為新的任務環境中的機器協同提供新的模式。
人工智慧追求的長期目標是使機器能像人一樣感知世界和解決問題。當前的人工智慧已不是一個獨立、封閉和自我循環發展的智能科學體系,而是通過與其他科學領域的交叉結合融入到人類社會進化的過程中,並將深刻改變人類社會生活,改變世界。
【修行人解讀 人類之所以具有感知和理解世界的能力,首先是人類文明4萬年以來發展與進化的結果。在印尼的原始森林的存在的原始部落,由於他們與現代社會存在數千年的隔絕,原始部落的人群的感知和理解的世界,就與現代社會人群感知和理解的世界大大不同,原始部落拋棄吃人的高尚習俗還是近30年的事情。
所以,對於人類為何具有的感知和理解世界的能力,是屬於人類意識與靈魂的範疇,作為科學家的院士,有此犯下凡重大失誤也是可以理解。鄭南寧,男,漢族,1952年12月生,祖籍陝西西安,出生於江蘇南京。1975年畢業於西安交通大學電機工程系;1981年西安交通大學獲工學碩士學位。畢竟院士的生活的年代與社會環境背景是那樣的。
但是院士對於人類的博弈與計謀,還是有深刻的認知。儘管圍棋很複雜,讓計算機在棋盤上識別最有利的落子位置也很難,但與精確地表徵自然界相比,描述圍棋對弈的狀態顯然要簡單得多,兩者之間的差距還要幾十年甚至更長時間才能彌合。】
【修行人解讀 人工智慧具有人類自我意識,是完全不可能的。人類的自我意識,是因為人類與宇宙生命體是一體的。人類至今都無法解讀意識的機理,今後也解讀不了。靈命與靈魂問題,是一個遠遠超越人類本身的哲學問題,也是人類的終極問題。
世界,也許就是一個宇宙大生命的模擬的、夢幻的鏡像,宇宙的本體在哪裡呀?這是一個不是人工智慧的科學院士,可以回答的問題。】
==============================================
https://zhuanlan.zhihu.com/p/31699318嘉露蓮、布琴科夫、派保、菲蒂帕、沈冰山盲人畫家 30歲失明Bramblitt現能見更多顏色 陶進失明人水墨世界
說起繪畫藝術來,許多人都說:畫畫是視覺藝術。確實,繪畫藝術作品的創造靠直覺和直觀,但人們往往把這直觀的「觀」簡單地理解為是視覺。在中國傳統文化中「直觀」不僅包括眼睛「看」這種「觀」,而且包括遠遠超過這種意義的深刻認識。「觀」這個詞,在中國傳統文化中,其意義是繁多的,但是,有幾層意義,是值得特別重視的。在《說文解字》中,釋「觀」為「諦視也」。「諦」則釋為「審」。就是說,這種「觀」不是一般的看,它要達到的目的,也不是一般所要達到的目的。這在《易傳》中,更明確地指出:「常事曰視,非常曰觀」。老子在《道德經》中所用之「觀」,正是在這種「非常」的意義上。「道可道,非常道」。其所指是,「道」乃「非常」,不可言說。雖然不可言說,但卻可以「觀」。因此,「直觀」就中國傳統文化而言,必須從超越眼睛看這種意義上去領會,才能進入事情的本質。
其實,人了解信息和掌握信息是有很多渠道的,人的六根②即眼、耳、鼻、舌、身、意的互用就足以證明了這一點。當然,眼睛是最便捷獲得信息的渠道之一,但並不是唯一。著名科學家錢學森教授說:「有的人與常人不同的實踐,也就有一種特別的思維,他能處理普通人扔掉的信息」。每當我帶著盲人繪畫班的學生去公園、郊外去寫生花卉時,盲人學生都能用手辯認出紅花、藍花、白花……這是因為不同色彩的花朵在溫度上有一點點差別,而使盲人認出它們的顏色,這叫以手代目;每當我帶著盲人學生去樹林中畫樹時,總會有盲人對我說:「這有一隻美麗的小蟲站在樹葉上」,我看了半天都沒看見,於是盲人拉著我朝他嗅到氣味的方向走去,把樹葉一翻開,原來漂亮的小蟲就在我們身邊,我卻看不到。然而盲人以鼻代目卻看到了並在地上畫給我看「它是園形的紅色的,然後在紅色的園中有規律的點上七個黑點」此時,七星螵蟲活靈活現的展示在我眼前;每當我帶著盲人學生到山裡去畫大山時,盲人學生通過雙耳聽山中的迴音,從而觀察出山的近遠、大小、多少並畫出來。這叫做以耳代目。這就是普通人扔掉的信息,即認定沒有眼睛觀察就無法做畫的道理。
從遠古記載的所有資料中,我們也可以清楚地看到這樣一個事實,在人類還沒有創造出文字之前人類就用繪畫、舞蹈等進行交流,這就是與人類象思維有關的形象思維的問題。是的,象思維乃是人生來的一種本能,一種本原性的思維③。只是這種「本能」或「本原」在概念思維占統治地位,或者說概念思維成為思維「常態」之後,人的這種「本能」或「本原」就經常被遮蔽或被抑制,久而久之甚至有所退化。例如,傳統中國文人,許多人都是琴、棋、書、畫四樣都會的,至少精通書法、會作詩。但是,現在,就是從中文系畢業,從事文化或文藝事業的人,不用說琴、棋、書、畫中四種都會,就是能作詩的,又有幾個?在這裡,確實可用老子的名言「為學日益,為道日損」來解釋這種「退化」現象。老子批評的「學」,在春秋末期,主要是指儒家為代表的「禮樂」文化。「禮」之「明份」,「樂」之「合同」,無論是作為理論規定,還是作為治國的典章制度,都是一種理性化的表現。從思維方式上看,也是強化概念思維的表現。為什麼「為學日益,為道日損」?就在於作為「禮樂」的「學」,在概念思維的框架里出現僵化,從而使顯示宇宙萬物一體相通的「道」受「損」,即出現堵塞。現代人,其所以缺乏象思維,正是這種在概念思維框架中所顯示的「為學日益,為道日損」。從現代腦科學的意義上看,用《數字化生存》的作者尼葛洛龐蒂的話來說,就是只用左腦而使右腦萎縮。
但是人們卻沒有意識到這種右腦萎縮的可怕性,有些人反而指責別人對右腦的開發,對人的潛能挖掘,諸如:繪畫藝術又不是鬧著玩的,沒有雙眼是不可能畫畫的。
那麼我又是怎樣教盲人學畫畫的呢,概括而言:一聽,聽理念課樹立信心戰勝自己的弱點,聽用筆在紙上組成不同造型時的聲音特點,聽自然界美好的氛圍之聲,從而激發自己的創作衝動。二嗅,讓盲人學生嗅出不同五顏六色的味道,嗅出濃淡墨色的味道,嗅出一幅新國畫構圖的墨味布置和五顏六色的分布來。三比,拿著盲人的手當畫筆在畫紙上比畫著學構圖,在手掌心上練造型等等。四摸,摸我用硬紙剪出來的各種動物、植物的形狀及構圖等。五練,勤能補缺,用心苦練,早晨4—5點就起來靜心的用心聽毛筆在紙上造型時如春蠶吃葉的聲韻之味,並加以總結成為自己的心得。六評,我們老師再對盲人學生的國畫習作進行講評指導等。
特殊藝術中的盲人繪畫猶為特殊,盲人畫家嘉露蓮這樣說:我們行事為人,是憑著信念、信心,而不是憑著眼見。由於盲人失去了視力,他們認識色彩是憑著嗅覺和觸覺,他們深有體會的說:每一種色彩都有自己獨特的氣味。而且用手觸摸也會有不同的感覺。例如紅色使我的手指尖感到暖,而藍色則感到涼……。正因為他們不用視力去繪畫,所以她們的繪畫都不是寫實的,而是中國式的寫意畫,他們把用心去觀察到的事物憑藉著想像去創造,這就是特殊功能的繪畫藝術,是心靈的畫卷。正如印象派繪畫大師塞尚所講的:「藝術不是直接描繪,而是我心靈的作品」,這才充分體現了藝術挑戰精神的極限,只有這樣,繪畫才能治心明道,盲人才能從藝術中得到完美,所以盲人繪畫是特殊的,其創作的一般過程是這樣:她由一條嚮導狗帶領,拿著錄音機到風景區去散步,錄下水流,鳥鳴、風吹樹林、狗踏青草等聲響。回家後,反覆播放錄音帶,當這些感覺衝動使她得到一幅畫的意念和意象時,就要聚精會神,「發瘋似地畫起來」。她說:「我只是畫出我心中的畫,直到我的心感覺已經完成時為止」。盲人的畫就是這樣熱衷於表達心靈,表達內心的情緒,這些方面是複雜和潛在的,是非語言,非文字的,也就是說:繪畫藝術必須忠實於自己的感受,在表現自我感受的過程中不能照顧到誰,如把該照顧的都照顧完了,藝術家自身也就不存在了。是的,特殊藝術中的盲人繪畫正是按照「藝術上的突破,以思想上的突破居先。藝術上的變,以魂質上的升華更有價值。」去實踐的,當盲人畫家們在觀念上衝破繪畫一定要視覺的框架之後,就享受到了公民的權力,就明白了「等你逼近生命極限,把曾經想都不敢想的事也做過了,這就叫無憾的人生。」
John Bramblitt繪畫的方式與盲人閱讀的方式相同,通過觸摸紋理而感受。John Bramblitt通過使用一種特殊類型的油漆,在畫布上用線條創造屬於他的藝術品,他說,每種顏色顏料的手感不一樣,這樣調色是靠自己觸摸的感覺而決定。「有時候人們很難理解我是如何畫畫的,但這真的很簡單」他笑道「這需要耐心」。
在他的網站上他說:「我所作的基本上就是把所有能看見的畫家眼睛的工作用觸覺來代替。突起的線條讓你找到畫布上顏色的位置。」Bramblitt說失明對於他來說是生活的轉折點,因為他開始在最黑暗的洞穴中發現了出路,那就是藝術。他開始用速干顏料在畫布上畫出線條,將空白的畫布塗滿顏色。隨著他越畫越多,他發現每種顏色都有不同的質感。
神奇的盲人畫家和他的作品
神奇的盲人畫家和他的作品_趣聞趣事_中文幽默王
你能相信這些彩色畫作是出自一位盲人畫家之手嗎?沒錯,他就是現年53歲的土耳其畫家Esref Armagan,一出生就失明的他,卻可以畫出人物、山水、房屋、蝴蝶等,甚至還繪製了自己的肖像畫,而且可以很好的應用色彩、陰影、透視比例等繪畫技巧,是不是很神奇?
佛家的「天眼說」或修鍊界所謂的「第三隻眼」。
佛家的「天眼」說「天眼」真的存在嗎?_本來如此_新浪博客
大約二十多年前,科學家們一直認為人的神經細胞分工很細。比如,視覺細胞只接收處理眼睛傳來的信號,而聽覺細胞只是對聲音有反應。但後來研究人員發現神經細胞其實可以有多種功能。比如在靈長類動物的實驗中,一些細胞既可以對手的觸摸有反應,同時也可以「看」得見距離這隻手幾厘米內的物體。
和李教授合作進行特異功能研究的物理學家陳建德教授則是從佛家「開天眼」的說法來解釋。天眼在人的兩眉之間往上一點連結松果體這個位置上。陳教授認為用手識字,可能就是這隻「天眼」發揮的功能,也就是修鍊界所說的第三隻眼所起的作用。
在許多古老文明的神像、祭司的面具上,或印度的佛像,道家的神像上在額頭的部位都不約而同地刻畫者這一隻眼睛。古希臘哲學家將其稱之為「靈魂的寶座」。史記「扁鵲列傳」中記錄著神醫扁鵲具有「視人五臟顏色」的能力。他具有天眼,能透視人體,然後配合自己的醫學知識,幫人「看」病。這個例子在俄羅斯也有,根據真理報2004年1月的報導,俄羅斯的一個小女孩娜塔莎可透視人體內部器官,看到其中有病的部位。
從小失明的盲人畫家艾斯萊福·阿馬甘(Esref Armagan)和其風景畫作。
著名「盲人繪畫」的實例
2005 年1月的《新科學家》雜誌報導了一個從小失明的盲人畫家艾斯萊福·阿馬甘(Esref Armagan)畫圖的事例。按理說他這輩子完全沒看過任何景象,然而他卻可以畫出山川、湖泊、房屋、人物和蝴蝶,對於色彩、陰影和透視比例的處理亦非常專業。哈佛大學的神經學學者阿爾瓦羅·帕斯庫爾-勒奧納(Alvaro Pascual-Leone)邀請阿馬甘到美國波士頓接受測驗。勒奧納教授也請阿馬甘作畫,畫一條伸向遠方的路和路邊的電燈柱。盲眼畫家一手作畫,另一手指尖觸摸紙面完成作品。在視覺功能缺失時,人大腦中負責視覺功能的區域並不會停止工作。而掃瞄阿馬甘的大腦時,發現在他作畫的時候,這一區域也發光,正像他「看」到了一樣。
勒奧納教授說,阿馬甘雖然沒有光感,但是他的「觀察」能力與正常人不相上下,他還能將反映到他大腦中的物體在紙上完整地表達出來。科學家因此認為:爭論多年的關於人的意識眼(mind eye)應該是存在的,而且每個人都有,但是有正常視力的人所感知的外部信息太強,從而將這種能力淹沒了,阿馬甘卻得以發揮了這種能力。有些學者認為人體有許多潛在能力尚未被開發出來,而這隻天眼其實就是人的本能之一。
================================================================
並不認為深度學習真正本質上借鑒了大腦的什麼機理,這更多的是一種宣傳手段,深度學習靠這個一吹就能發science和nature,感覺像是洞悉了大自然多麼本質的東西,其實並沒有。不然的話,現在計算機學界做這些東西為什麼不從神經學的角度入手呢?人類大腦能做的這麼好,直接研究人來大腦的構造不是更直接?比如做CV的直接按人類眼睛到大腦這一段的神經結構構造神經網路不就完了么,為啥還拚命的調參數調結構?
推薦閱讀:
※推薦演算法中除了itemcf外還有哪些計算item相似度的策略,另外有哪些基於模型的itemcf演算法?
※如何看待如今上演的全民 CS,全民 AI 現象?
※二值化網路如何實現加速?
※美國數據挖掘研究生?
※arXiv怎麼發音?
TAG:機器學習 | 大腦 | 神經網路 | 深度學習DeepLearning | 神經系統 |