發育、學習和記憶:用超級計算機研究大腦可塑性

寫在前面的話

在本專欄的第一篇和第二篇文章中,我提到了好幾次大腦可塑性(plasticity)的概念。大腦可塑性不只是神經元數量的增加,還體現在神經元之間的突觸形成和連接建立上。大腦的功能建立在高度連接的神經網路基礎上。發育的過程是神經元獲得特定的屬性,並且建立正確的連接;而學習和記憶的過程,是神經元之間的連接得到修改,增強或者減弱。這一微觀現象在分子生物學和電生理學實驗中都被觀察到了,而出身於數學、物理、計算機背景的科學家們也非常感興趣,想在全局視野上理解這一現象。本文將重點介紹兩種研究突觸間可塑性的計算神經科學的常用方法。

--------

Hebb的假設

在這一篇文章里,我提到Hebb關於神經元間形成突觸的理論,fire together, wire together. 即當兩個在位置上臨近的神經元,在放電時間上也臨近的話,他們之間很有可能形成突觸。而突觸前膜和突觸後膜的一對神經元的放電活動(spike train)會進一步影響二者間突觸的強度。

當時在UCSD的華裔科學家蒲慕明和畢國強對Hebb的假設做出了非常大膽而精彩的實驗驗證。在大鼠海馬區神經元上,通過改變突觸前膜神經元和突觸後膜神經元放電的時間差Delta t,來檢驗二者之間突觸強度的變化。不過,為了實驗進行的方便,以突觸後膜神經元為參照,突觸前膜神經元放電將在突觸後膜引起一個興奮性(EPSP)或者抑制性(IPSP)的局部電流,因此時間差Delta t被重新定義為EPSP產生和突觸後膜放電的時間差,即Delta t = t^mathrm{spike}-t^mathrm{EPSP}.

實驗結果非常喜人。

如上圖所示,EPSC幅度是一個測量突觸強度w的量。當EPSP先於spike產生,該突觸強度增強;當EPSP後於spike產生,該突觸強度被減弱;增加和減弱的量跟突觸的當前強度有關。這個現象叫做Spike-Timing Dependent Plasticity (STDP),在這個實驗中,STDP只在興奮性神經元發出的突觸上被觀察到了。

這個實驗結果將發育、學習、記憶的研究從「有沒有」推進到了「是多少」的旨在發現其時間空間物理數學規律的階段。

STDP的數學原理

通過量化建模,突觸強度的變化被簡化為以下優美的數學公式:

Delta w^+ &=F_+(w)cdot e^{frac{-lvertDelta trvert}{tau_+}}quad quad quad& text{if }Delta t >0

Delta w^- &=-F_-(w)cdot e^{frac{-lvertDelta trvert}{tau_-}}quad quad quad& text{if }Delta t <0

Delta w 是每一次突觸強度變化的值,它是時間差Delta t的函數, F_-(w) =lambda alpha w^muF_+(w)=lambda (1-w)^mu,公式中別的值都是根據實驗可以獲取的或者用數學方法估計得到的參數。

這就是計算神經科學的基礎,利用實驗數據進行抽象建模,獲取其數學物理規律,再根據相應的規律建造工具,模擬自然神經網路,就可以進行計算機實驗,來檢驗目前普通生化實驗無法做到的大規模量化和動態觀察。

結構可塑性

STDP有一個缺陷,就是它最初被用於point neuron模型,也就是把神經元簡化為一個點,而忽視了神經元的形態特徵。然而實際上神經元是一個形態萬千的細胞,來自同一個突觸前膜的spike,到達樹突(dendrites)或者到達胞體(cell body or soma),對於該突觸後膜的電活動影響大小是不一樣的。而且,神經元之間可以形成多個連接,這是point neuron的矩陣無法實現的。可以這麼說,在現實中,兩個神經元之間在不停地產生新的突觸或者有突觸消失,既有的突觸強度也是不斷變化的。

那麼一個能夠模擬結構變化的演算法應運而生,叫做Structural plasticity. Structural Plasticity的演算法2016年才上線,目前這個領域還非常新,相關的研究並不多。

用計算機解決神經科學的真實問題

前面講了很多數學,都是為了研究實際問題。舉一個跟真實大腦現象有關的例子。

視覺皮層的神經元被報告具有獨特的反應域,即不同的神經元會對特定的方向(prefereerd orientation)起反應。在貓和猴子的視皮層內,方向偏好類似的神經元在位置上是鄰近的。但是這種鄰近現象在嚙齒類動物視皮層卻不存在。那麼在小鼠視皮層上,這些神經元都是單兵作戰么?還是有什麼地下網路呢?

這個來著德國BCCN神經科學中心的Rotter組的實驗,就用計算機模擬的方法,發現了具有相似方向偏好的神經元之間的連接強度比不相干的更強。在訓練之前,各個神經元的初始連接強度都一樣,等到訓練一段時間後,有的連接增強了,有的連接減弱了。方向偏好類似的連接增強了,這就暗示了在小鼠視皮層也有類似於貓和猴子的神經元cluster。

這個研究是計算神經科學運用的一個很好的典範,因為腦成像研究還無法精確追蹤神經元群以及每對神經元的突觸(除了一個非常新的real time in vivo calcium imaging技術)。

--------

三兩閑話

鋪墊這麼久,終於寫到我自己的領域了。計算神經科學有非常多有趣的演算法和研究,也是我為之著迷的地方。本專欄隨後將會推出一個【計算神經科學小黑屋】系列,放上一些計算神經科學領域的基礎內容,以及值得討論的交叉學科話題,還會邀請有關領域的同學來寫作。希望對這一領域感興趣的同學能夠加入我(們?),一個人讀公式太苦了,不如一起討論吧。戳這裡看我們正在進行的讀書會的討論筆記。

--------

相關參考

題圖出自這裡,戳

神經元的圖出自這裡,戳

按順序出現的四篇文獻:

Bi, G. Q., & Poo, M. M. (1998). Synaptic modifications in cultured hippocampal neurons: dependence on spike timing, synaptic strength, and postsynaptic cell type. The Journal of neuroscience, 18(24), 10464-10472.

Morrison, A., Aertsen, A., & Diesmann, M. (2007). Spike-timing-dependent plasticity in balanced random networks. Neural computation, 19(6), 1437-1467.

Diaz Pier, S., Naveau, M., Butz-Ostendorf, M., & Morrison, A. (2016). Automatic generation of connectivity for large-scale neuronal network models through structural plasticity. Frontiers in Neuroanatomy, 10, 57.

Sadeh, S., Clopath, C., & Rotter, S. (2015). Emergence of Functional Specificity in Balanced Networks with Synaptic Plasticity. PLoS Comput Biol, 11(6), e1004307.


推薦閱讀:

MATLAB神經網路(七):基於SVM的葡萄酒識別
不擅長編程,有運籌學基礎,該怎麼學習智能演算法?
神經網路中利用矩陣進行反向傳播運算的實質
深度壓縮之蒸餾模型
深度學習(Deep Learning)基礎概念1:神經網路基礎介紹及一層神經網路的python實現

TAG:计算神经科学 | 神经网络 | 神经科学 |