意識的生理基礎
118 人贊了文章
簡單來說:
意識的生物學基礎是大量神經元集群的協同活動
雖然說意識無非是大量神經元的協同活動。但是這裡的「大量」和「協同」才是根本性的關鍵問題,也是普通人很難使用實際形態的事物或者概念去理解的——這麼物理/數學模型簡單的神經元,如何大量地協同起來去達成複雜的功能的呢。
1. 意識的最基本單元:神經元和突觸
神經元之間最直接的連接在於從一個神經元的軸突到另一個神經元的樹突通過突觸的連接。一個神經元的樹突可以接收多個神經元軸突的連,同樣地,一個神經元的軸突也可以連接到多個神經元的樹突。姑且認為,這種連接是單向地,也就是,信號以放電的形式,只能從上一個神經元的軸突傳導到下一個神經元的樹突。實際上,即使這種連接是雙向的,如果轉換成網路,兩個神經元組成的無向圖在拓撲上等價於由它們組成的兩個有向圖。所以,我們考慮神經網路的問題,可以把這個生理結構最為簡單化,也就是使用最為簡單的數學/物理模型表示:
一個神經元j接收由上一個神經元傳來的信號(強度) ,並給出反應(放電) . 這個神經元對於來組不同軸突的信號敏感性不同,對於 信號所來的軸突,其敏感性為 ,同時該神經元對信號的響應函數(激活函數)為f, 那麼對於這個信號的輸出 . 如果考慮來自於n個軸突的信號,則有:
. 實際上,神經元總是有一個額外的輸入,稱為bias, 並有對應的敏感性(權重),這裡暫不考慮。
2. 神經元到神經元網路
從幾個神經元到神經元網路,事情就突然變得複雜起來,因為這個事情的複雜度至少是指數增長的。不過我們仍然可以使用類似如下一類的多個基本神經元網路來等價生物神經元網路的拓撲結構:
這就是我們經常聽說或者接觸的神經網路。可以這樣簡單理解:多個數據從各自對應的樹突傳入,經過幾個神經元的處理(加權、響應、bias等),在某個神經元的軸突傳出放電信號。這個過程在生物大腦中無時不在進行。
在生物體中,神經元網路里的權重和響應函數可以通過多種方式得到改變。對於底層功能,比如基礎視覺、聽覺,最為常見的權重改變方式為「用進廢退」(Use it or lose it) [1]. 也就是,使用越多(在適度的方位內,放電越頻繁)的神經元連接會得到增強,而長期不使用的神經元連接會被削弱甚至斷開。對於高級功能對應的神經元/神經元網路,其權重改變方式則要多變和複雜的多,除了用進廢退,還有反饋,協同等等已知和未知的方式。
在現有的常見神經元系統中,神經元連接權重的改變的主流方法在於反向傳輸(Back Propagation)[2, 3],這是一種反饋方式. 簡單來說,就是將輸出信號跟目標信號以一定方式進行比對(loss function),然後將誤差反向傳導,以一定的速度(量)來改變對應神經元連接的權重(微分)。通過如下簡單的python代碼可以很容易的理解這個過程:
import numpy as npN, D_in, H, D_out = 64, 1000, 100, 10x = np.random.randn(N, D_in)y = np.random.randn(N, D_out)w1 = np.random.randn(D_in, H)w2 = np.random.randn(H, D_out)learning_rate = 1e-6for t in range(500): # Forward pass: compute predicted y h = x.dot(w1) h_relu = np.maximum(h, 0) y_pred = h_relu.dot(w2) loss = np.square(y_pred - y).sum() print(t, loss) # Backprop to compute gradients of w1 and w2 with respect to loss grad_y_pred = 2.0 * (y_pred - y) grad_w2 = h_relu.T.dot(grad_y_pred) grad_h_relu = grad_y_pred.dot(w2.T) grad_h = grad_h_relu.copy() grad_h[h < 0] = 0 grad_w1 = x.T.dot(grad_h) # Update weights w1 -= learning_rate * grad_w1 w2 -= learning_rate * grad_w2
3. 意念對象與Autoencoder
這裡,我將意念對象定義為我們在意識中想像事物或者概念。舉例來說,我們想到樹,會在意識中繪製其形狀、色澤、動態特徵等(編碼過程)。如果問我們怎麼知道我們想的東西是樹呢,因為我們想像的形狀、色澤、動態特徵符合樹的特徵。當然,對於一個沒見過樹的可憐人來說,TA是不可能一下就能獲得這個正確的意念的,而是需要多次的看、觸摸以及想像。那麼為什麼我們人總是能通過這樣的方式獲得正確的意念對象呢?
換用到計算神經網路,這就變得容易解釋起來。在神經網路語境下,Autoencoder(自編碼器)是一種應用反向傳輸演算法的非監督學習神經網路,其訓練的方法在於讓網路的輸出等於其輸入,也就是 .
一般地,Autoencoder被認為是一種數壓縮演算法,其數據的壓縮和解壓縮(decoder)是數據相關(數據驅動)、有損的。考慮到生物大腦神經網路的複雜性,我們有理由相信,在高等生物大腦中,存在大量的Autoencoder-decoder網路結構。而越來越多的神經科學研究也支持這一顯然性的假設——我們因此能使用一些簡單的演算法,從大腦的信號中解碼出視覺信息[4], 解碼出的信息跟視覺信號輸入高度類似,但也反映出一定的「壓縮」特徵:
Autoencoder的訓練方式非常簡單,就是讓輸出等於輸入。這對於一個空白的、沒有事物概念的人腦(剛出生的嬰兒)來說,訓練是可行的。Autoencoder的存在可能是我們意識中生成意念事物結構基礎。我們想像人臉,在意識中生成的圖像不是某一個具體的人的人臉,而是人臉的很多特徵的組合——形狀、膚色、結構和結構關係等,這些具體的特徵就是Autoencoder的feature map. 由於Autoencoder的數據驅動性,我們意想同一個事物所生成的圖像不是一成不變的,隨著年齡的增長,我們意想的人臉可能更年長;出國生活一段時間之後,意想的人臉可能更具有一些外國人的特徵。
4. 意識的雜訊/潛意識、夢與 GAN
GAN(Generative Adversarial Network, 生成對抗網路) [5]是目前在機器學習領域最為火熱的話題之一(可能沒有之一)。GAN的提出受啟發與二人零和博弈,GAN中有兩個這樣的博弈者,一個生成模型(G, Generator),另一個是判別模型(D, Discriminator)。以圖像生成模型舉例。假設我們有一個圖片生成模型,它的目標是生成一張真實的圖片,同時我們有一個圖像判別模型它的目標是能夠正確判別一張圖片是生成出來的還是真實存在的。其訓練過程如下:
生成模型生成一些圖片->判別模型學習區分生成的圖片和真實圖片->生成模型根據判別模型改進自己,生成新的圖片->····
這個訓練過程直到判別模型無法通過訓練提高自己的判別精度,也就是無法區分生成模型產生的圖片是虛構的(網路生成的)還是真實存在的。典型地,假設生成模型是 , 其輸入 是一個隨機雜訊,而 則是將這個隨機雜訊轉化為一張圖片(盡量跟真實圖片接近,從而愚弄D)[6]:
GAN的訓練過程由於涉及到兩個網路的優化,其訓練過程較一般神經網路要更複雜——兩個網路相互對抗、不斷調整參數,從而生成以假亂真的效果:
對於我們人腦來說,這個聯合訓練過程是一直存在的,我們在大腦中生成意向,同時還用意識(邏輯)判斷這個意向是否準確; 同時,對於我們越了解的事物,生成的意向的細節就越豐富。另外還有一個有趣的因素在於,我們大腦中生成網路所依賴的神經結構和判別網路所依賴的神經結構在空間區域上有所不同——生成圖像、聲音等網路的結構涉及級視覺、聽覺等皮層,它們位於枕葉、顳葉等區域;而判別網路設計的邏輯推理等相關結構則大量位於前額葉及附近區域[7-9]。這一異位造成了非常有趣的結果——我們人類在意識放空、睡眠時候,前額葉區域的活躍水平會明顯下降,而視覺、聽覺皮層在這個時候可能保持高的活躍水平[10, 11],也就是生成網路所依賴的結構活躍的同時,判別網路的結構功能受到抑制——這大大抑制了判別網路的性能表現,而生成網路的性能較少受到影響。這個時候、我們的潛意識信號(來自神經系統廣泛存在的雜訊)則會作為輸入,以生成網路的輸出的形式浮現出來,而我們的判別網路誤以為真,從而意識跟著這些生成的假意向移動,造成夢裡的圖像和劇情。我們大腦中沒有受到抑制的記憶相關區域則不分真假、公正無私地把這些過程存儲下來,形成我們醒來之後的夢的記憶——光怪陸離、時真時假,通常邏輯混亂。這就是我們的「夢」的神經網路解釋。
在我們的神經系統生病、受到壓力時候,生成網路和判別網路所依存的神經結構可能已經受損,這會使我們產生幻覺,以及更為怪誕的夢境。
5. 意識與 Hidden Markov Model(隱馬爾可夫模型)
光有意念對象還不夠,這些意念對象要相互聯繫起來,流動起來,加入邏輯,構成「劇情化」的形象,才叫做意識。
意念對象,可以認為是馬爾可夫過程中的狀態,一種狀態以一定概率躍遷到另一種狀態(可見狀態鏈),就將各個意識對象聯繫起來,同時我們不用了解這些狀態之後的具體影響因素(隱含狀態)。由於隱馬爾可夫鏈[12]的這一特性,我們經常地將前後出現的事物之間的關係誤解為因果關係。我們在成長的過程中,不斷地改變這些狀態之間躍遷的概率,使它更符合外界事物的情況,同時使我們自己越來越reasonable, 越來越理性(理想狀態下)。
由於人腦神經網路的複雜性,這裡列舉的網路結構只是九牛之一毛。個人認為這些網路結構的原理和特性對於我們理解意識的機制是最為重要,所以加以來說明。此外還有一些網路也是非常常見的,同時不可或缺,比如我們常見的CNN(Owl of Minerva:卷積神經網路工作原理直觀的解釋?), RNN, LSTM,Restricted Boltzmann Machine等。
通過上面的說明,我們可以發現,「意識」並不是一個純生物學的機制,我們不能單純地把它放在生物學/神經科學/心理學的範疇下求解。
[1] Lim, J. H. A., Stafford, B. K., Nguyen, P. L., Lien, B. V., Wang, C., Zukor, K., ... & Huberman, A. D. (2016). Neural activity promotes long-distance, target-specific regeneration of adult retinal axons. Nature neuroscience, 19 (8), 1073-1084.
[2] Hecht-Nielsen, R. (1988). Theory of the backpropagation neural network. Neural Networks, 1 (Supplement-1), 445-448.
[3] Le Cun, Y., Touresky, D., Hinton, G., & Sejnowski, T. (1988, June). A theoretical framework for back-propagation. In Proceedings of the 1988 Connectionist Models Summer School (pp. 21-28). CMU, Pittsburgh, Pa: Morgan Kaufmann.
[4] Miyawaki, Y., Uchida, H., Yamashita, O., Sato, M. A., Morito, Y., Tanabe, H. C., ... & Kamitani, Y. (2008). Visual image reconstruction from human brain activity using a combination of multiscale local image decoders. Neuron, 60 (5), 915-929.
[5] Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., ... & Bengio, Y. (2014). Generative adversarial nets. In Advances in neural information processing systems (pp. 2672-2680).
[6] Radford, A., Metz, L., & Chintala, S. (2015). Unsupervised representation learning with deep convolutional generative adversarial networks. arXiv preprint arXiv:1511.06434.
[7] Heit, E. (2015). Brain imaging, forward inference, and theories of reasoning. Frontiers in human neuroscience, 8, 1056.
[8] Fangmeier, T., Knauff, M., Ruff, C. C., & Sloutsky, V. (2006). fMRI evidence for a three-stage model of deductive reasoning. Journal of Cognitive Neuroscience, 18(3), 320-334.
[9] Christoff, K., Prabhakaran, V., Dorfman, J., Zhao, Z., Kroger, J. K., Holyoak, K. J., & Gabrieli, J. D. (2001). Rostrolateral prefrontal cortex involvement in relational integration during reasoning. Neuroimage, 14 (5), 1136-1149.
[10] Kosslyn, S. M., & Thompson, W. L. (2003). When is early visual cortex activated during visual mental imagery?. Psychological bulletin, 129 (5), 723.
[11] Horikawa, T., Tamaki, M., Miyawaki, Y., & Kamitani, Y. (2013). Neural decoding of visual imagery during sleep. Science, 340 (6132), 639-642.
[12] Blunsom, P. (2004). Hidden markov models. Lecture notes, August, 15, 18-19.
推薦閱讀: