如何看待現在深度卷積網路能夠做一些量子物理的問題?

reference:

  • [1702.01361] Deep learning and the Schr"odinger equation
  • [1606.02318] Solving the Quantum Many-Body Problem with Artificial Neural Networks

物理太差,所以看到文章只能不明覺厲。想問一下效果做的有多好;成果對CV/NLP是否有意義;成果對理解整個neural network是否有意義?


謝邀~ @王磊

我的研究方向是量子多體,最近正在接觸機器學習。

機器學習做物理的確很早就有了。不過真正火起來其實也就是去年的事吧。國內&

的學術會議也是去年下半年剛剛在北京辦了第一屆。所以這是一個新得不能再新的方向。因此現在談如何看待,如何評價這樣的問題,實在是......

很容易被打臉呀( ̄ε(# ̄)☆╰╮( ̄▽ ̄///)......

不過我純粹的個人看法(flag)是:這是一個正在興起,在將來有大概率會給物理領域或(和?)機器學習領域帶來實質影響的方向。

說起來這個方向怎麼就突然火了呢?

從14年下半年的這篇文章開始說吧。

"An exact mapping between the Variational Renormalization Group and Deep Learning", Pankaj Mehta, David J. Schwab , arxiv:1410.3831, Oct 2014

它證明了kadanoff的塊重整化可以映射成一種特殊的深層玻爾茲曼機。雖然它並沒有給出一個可以真正用來做事情的演算法。但是能夠嚴格地把重整化群這個多體物理領域的重要工具映射到機器學習模型,當時還是吸引了相當多的關注的。

緊接著16年3月就發生了眾所周知的alphago戰勝李世石事件,物理學家像所有人一樣,關注了認識了機器學習這個大殺器的強大威力。心有戚戚然。於是他們就用他們聰明的小腦袋瓜想呀:

1,能不能讓這個大殺器為我所用?(機器學習在物理學中的應用

2,能不能把這個大殺器收入我大物理麾下?(用物理理論挖掘機器學習能夠成功的原理

3,能不能搞個量子大殺器?(量子機器學習,這一塊知乎上 @Summer Clover 很在行)

(嚴格地講,量子機器學習的興起要早於alphago,而1、2稍晚。

"Quantum algorithms for supervised and unsupervised machine learning", Seth Lloyd, Masoud Mohseni, Patrick Rebentrost, arxiv:1307.0411, Jul 2013)

然後16年5月這篇文章來了

"Machine learning phases of matter", Juan Carrasquilla, Roger G. Melko, arxiv:1605.01735, May 2016

它第一次真的用監督學習算了一個統計物理模型:Ising model。 然後發現機器真的可以分類高溫相和低溫相的自旋構型。並且這樣的分類能力對無阻挫系統還有一定的推廣能力(比如你用正方格子的鐵磁Ising model來訓練,訓練出來的神經網路也能分類鐵磁三角格子的shu。 )

這篇文章的意義倒不是說算了一個多難的模型,模型很簡單,但它第一次向人們展示機器學習真的可以用來做物理問題。前方是一片無人踏足的新大陸,物理學家們眼睛都綠了,多好的機會呀!

於是在接下來短短半年內就出現了許多不錯的工作:

"Discovering Phase Transitions with Unsupervised Learning", Lei Wang, arxiv:1606.00318, Jun 2016

"Solving the Quantum Many-Body Problem with Artificial Neural Networks", Guiseppe Carleo, Matthias Troyer, arxiv1606.02318, June 2016

"Machine learning quantum phases of matter beyond the fermion sign problem", Peter Broecker, Juan Carrasquilla, Roger G. Melko, Simon Trebst, arxiv:1608.07848, Aug 2016

"Machine Learning Phases of Strongly Correlated Fermions", Kelvin Ch"ng, Juan Carrasquilla, Roger G. Melko, Ehsan Khatami, arxiv:1609.02552, Sep 2016

"Exact Machine Learning Topological States", Dong-Ling Deng, Xiaopeng Li, S. Das Sarma, arxiv:1609.09060, Sep 2016

"Accelerate Monte Carlo Simulations with Restricted Boltzmann Machines", Li Huang, Lei Wang, arxiv:1610.02746, Oct 2016

"Self-Learning Monte Carlo Method", Junwei Liu, Yang Qi, Zi Yang Meng, Liang Fu, arxiv:1610.03137, Oct 2016

"Learning Thermodynamics with Boltzmann Machines", Giacomo Torlai, Roger G. Melko, arxiv:1606.02718, Jun 2016

etc...

(提問中那篇投science的預印本也在裡面,另外上述作者中至少有兩位知友(~ ̄3 ̄)~)

提問中那篇文章

[1606.02318] Solving the Quantum Many-Body Problem with Artificial Neural Networks

16年6月出現在arXiv上,最近被science接收。又把一堆物理學家給震了,要知道搞理論搞計算的物理學家要發篇science那難度...

這篇文章用限制玻爾茲曼機的網路結構作為基態波函數ansatz來做變分蒙卡求量子模型(橫場Ising和heisenberg)基態。就這麼簡單一弄,出來的結果卻比目前的數值演算法效果好。物理學家們一邊覺得有點毀三觀,一邊想想也對,限制玻爾茲曼機這種ansatz的優勢第一參數相對較少,第二天生適合描述非局域糾纏/相互作用。用來描述基態正合適。於是這篇文章也給人一些想入非非的大餅,那這種ansatz推廣到更複雜更重要的體系效果如何呢?比如spin liquid?比如hubbard模型? 非常值得一試呀!

另外物理學家們當然也在嘗試著用物理的武器庫來優化機器學習演算法。比如這篇

"Supervised Learning with Quantum-Inspired Tensor Networks", E. Miles Stoudenmire, David J. Schwab, arxiv:1605.05775, May 2016

把DMRG(密度矩陣重整化群)用到監督學習中,將原來的網路svd成矩陣乘積態。不但同樣可以訓練出來,而且很顯著的節省了計算代價。

當然我們也要用物理學的思想來探討一下機器學習為什麼這麼成功:

"Why does deep and cheap learning work so well?", Henry Lin, Max Tegmark, arxiv:1608.08225, Aug 2016

幾乎所有的機器學習演算法,都可以看做是在變分擬合某種未知的概率分布。但讓人費解的地方是,這些概率分布的可能取值非常大,遠遠大於宇宙的原子總數(400個像素的黑白圖片的可能取值激素2的400次方,約合10的120次方,宇宙原子數約10的80次方)。為什麼僅用幾萬幾十萬的數據楊蓓就可以把這些概率分布逼近得如此好?這件在數學上讓人迷惑不解的事實有可能物理學家能夠回答哦。

或許我們餵給機器的所有圖片,我們關心的所有圖片,都只是圖片的可能集合中的極小部分(雪花白雜訊的可能取值比任何一種圖片都多,但我們不關心。)換句話說,我們覺得有意義的圖片,都或多或少是現實世界的反映。現實世界是要服從物理定律的。這使得我們認為有意義的圖片信息也往往在旋轉不變性,平移不變性,局域性等等嚴苛的物理定律的限制下極大的縮小了取值範圍。

又比如我們在理解圖片的時候並不需要記住每一個像素點,我們看的是大框架。用物理的話說,我們不關心圖片的微觀細節,我們在意的是這些微觀細節重整化完了之後剩下的那些東西。那些微觀模型的「低能」近似。(最接近高能極限的圖片長什麼樣子呢?雪花白雜訊咯,每一個像素點都在劇烈漲落,不過我們不關心這樣的圖片)

所以機器學習本質上是一個物理問題嗎? 我沒有答案。

最後安利一下我們自己的一個工作

"On the Equivalence of Restricted Boltzmann Machines and Tensor Network States", Jing Chen, Song Cheng, Haidong Xie, Lei Wang, Tao Xiang, arxiv:1701.04831, Jan 2017

在張量網路和限制玻爾茲曼機之間建立了一個嚴格的映射,用張量網路這邊的工具(比方說糾纏熵,約化密度矩陣)討論了限制玻爾茲曼機網路結構的表示能力。

總之呢,正如我最開始說的那樣,這是一個正在興起的方向,希望它走得長久,圍棋這個人類智力高峰已經被AI拿下了,前沿物理研究這個智力高峰有生之年能拿下么^ ^~

==================================================================

我掛一漏萬隻給出了很少的一些工作。有興趣了解更多的同學。我非常推薦Roger Melko 與 Miles Stoudenmire 整理的這個網頁:

Papers


嘛。。物理系的同學們又多了一個名正言順學習轉行技能的方式。。反正國內的各大院校CS都快成了機器學習系了,這波東風還能帶一帶物理系的同學們。。

正經回答的話:作為鄰近領域從業人員,個人以為 tensor-network methods 的話起碼還是有不少正經的理論結果的。tensor network 算是 cs theory 風格濃重的新興數學工具,用以表示 quantum circuit 都非常自然,涉及的 community 從凝聚態到高能甚至到 counting complexity。已經解決的部分,比如 1D gapped system 的情形從實際結果到嚴格的理論證明都有,整套體系漂亮的不行。

而 neural network 可是純粹啟發式瞎搞,這一上倒是和泛 ML 圈的一貫做派一以貫之。特別是看一幫凸優化都不會的物理學家們寫數值瞎弄,偶爾看過幾篇簡直尷尬。不過也許當年對重整化嗤之以鼻以至於被時代拋棄的 Dirac 就是這麼想的。當然,其實像樣的分析也開始有一些,譬如

  • [1701.05039] Efficient Representation of Quantum Many-body States with Deep Neural Networks
  • [1701.06246] Neural network representation of tensor network and chiral states

如果有類似某些 tensor network 的嚴格理論分析指出能夠有效計算的情形的話(比如上面提及的兩篇),反過來自然有助於理解 deep learning:可能的途徑有很多個方面,直接從某類 neural network 得到結果(如上面第一篇用 polynomial hierarchy 作為假設導出能夠有效表示的情形),或者把已有的對 tensor network 的結論轉過來。畢竟 DMRG 剛出來的時候大家也認識不到這玩意到底多 powerful。。

---------------------------------------------------------------------------------------------

補個刀, QIP 2017 的 Accepted poster (通常是被拒了 talk):

大概發了 Science 也不妨礙被 QIP 拒吧......


中午吃飯時把兩篇文章都讀了一下。machine learning 我只懂點皮毛,所以從電子結構的角度說一下。

我覺得這兩篇文章反映了用 ML 的方法處理電子結構問題(基本可以等同於它這裡說的 Schrodinger equaiton 或 quantum many-body problem)的兩個最容易想到的思路。

  • 第一個(第一篇文章)是直接找映射關係,講得不好聽一點是暴力擬合

薛定諤方程 hat{H}psi = Epsi 是一個關於哈密頓量 hat{H} 的本徵方程,本徵矢 psi(波函數)包含了求解其他性質需要的信息。hat{H} 的形式只由待研究的系統決定:給定一個系統,就給定了 hat{H} ,原則上就確定了整個系統的所有性質(只要解出波函數 psi 就好了)。用數學的語言說,就是存在如下三個映射:

Phi_1: 	extrm{system} 	o hat{H}

Phi_2: hat{H} 	o psi

Phi_3: psi 	o 	extrm{ALL properties}

第一、三步(通常)是 trivial 的,關鍵在於第二步的薛定諤方程難解(粗略地說,對薛定諤方程的近似求解構成了整個量子化學)。鑒於此,人們就想到利用 ML 的超強擬合能力來繞過它,所以就有了下面這個映射:

Phi_{	extrm{ML}}: 	extrm{system} 	o 	extrm{some property}

也就是建立一個從給定的系統直接指向某個物理性質的映射。具體實現的話 ML 里有大量現成的 model。第一篇文章就是這個思路,用的 model 是卷積神經網路(CNN)。

個人覺得這類方法不是很優雅(非常暴力!),缺點也很多:

  1. 是 supervised learning. 也就是需要大量的精確解來 train 你的 model. 這是致命的。因為薛定諤方程的特點是,精確解在概念上很簡單(取一組較大的基,薛定諤方程成了矩陣方程,精確對角化就好了),但 computational scaling 是指數發散的。所以用精確解來構建 training set 不現實。這就意味著只能用近似解,那麼就算你 train 得再好你的 model 也只能 reproduce 近似解。。。
  2. model flexibility 差. 以我對 neural network 的認識(錯了請指出,謝謝!!!),一個網路的 architecture 是在 train 之前就要固定了的。比如說這篇文章里把 hat{H} 用 256-by-256 的矩陣表示,那麼可以想見它的 input layer 是一個 256*256 的向量。那麼這樣 train 出來的模型怎麼解其他 hat{H} 呢?我覺得這種意義下的 transferability 並沒有。當然也有可能是我對 CNN 的理解錯了。(我曾經思考過的一個解決思路是,把分子拆成片段,使得每一個片段的大小符合我 train 的 model 的維度,但這樣又要考慮片段之間的相互作用之類的。)
  3. 不普適。由於沒有波函數,上面的 Phi_{	extrm{ML}} 一次只能 train 一個性質。這和先解薛定諤方程得到波函數 psi 有本質區別,後者可以求所有性質。所以對每個感興趣的性質我都要 train 一次(比如文章里 train 了基態能量和第一激發態能量兩個性質),工作量大不說,最可怕的是不同物理量之間不一定 consistent.

如果說 2 可能還可以從 model selection 角度補救,個人覺得 1 和 3 基本 kill 這類方法了。

  • 第二個是利用變分原理(wiki: Variational method (quantum mechanics))。

基本思路是:我解不出精確基態波函數 psi,但我可以猜啊!比方說猜一個 phi ,那麼變分原理保證這個試探波函數的能量一定是真實基態能量的上界,也即:

E[phi] geqslant E[psi]

那麼一個顯而易見的近似是:我讓我的試探波函數依賴於一些參數 phi = phi(m{c})(這個過程叫參數化,parametrization) ,這樣它對應的能量就是 m{c} 的函數了 E[phi(m{c})] = E(m{c}) 。所以我只要在參數空間做一個最小化

min_{m{c}}E(m{c})

就能得到在當前參數化形式下的最好的近似波函數了。

理論化學/理論物理學家基於物理 or 數學的 argument 已經提了很多很多種參數化波函數的方法,其中第二篇文章里提到的 DMRG 和 QMC 本質上都是不同的參數化波函數的方法(前者用的 MPS,後者則是 Jastrow-Slater determinant)。而這篇文章本身的創新之處,我個人認為,在於用 neural network 來參數化波函數。好處應該是優化能量的問題可以用 NN 裡面成熟的優化方法解決。

就他們彙報的結果來看,效果還是可以的。一個 hidden layer 就能達到 DMRG 的精度。不過也有幾個問題,比如一維和二維體系的對比來看,明顯二維需要更複雜的 architecture. 這種維度依賴會隨體系進一步增大而變的越來越不利嘛?這是這個方法是否 size-extensive 的問題,可惜作者也沒咋討論(可能是限於 Science 篇幅 orz)。

總的來說我覺得第二篇稍微比第一篇好一點,至少思路更加物理一點,而且由於不是 supervised leraning,可能的下一步發展也多一點。第一篇實在讓人不得不懷疑作者是不是在蹭熱點(而且還蹭得很難看)。


我先簡單回答一點,實在沒空看這些論文:這些文章主要目的是通過神經網路建立波函數,傳統波函數是多個基的線性疊加,然而基態更好的表述是張量網路態,這個可以看成是神經網路的推廣版本。從更一般的張量網路構建新的圖像識別網路, NIPS16年是有文章的,當然,也可以倒過來當成波函數。值得一提的是,張量網路在物理界是新興的寵兒。。。

其實,用神經網路擬合波函數很早就有人幹了,並不成功,大部分的多體波函數構建都要考慮非常複雜的相互作用的。。。不是深度學習,和 GPU 這些工具炸出來的話。你敢亂用非物理手段構建波函數,等著被物理界老朽們活活噴死吧。。。。。


用機器學習解決物理學問題其實很早就有了。

甚至在我接觸機器學習之前,就有了:

[1] Snyder, J. C., Rupp, M., Hansen, K., Müller, K. R., Burke, K. (2012). Finding density functionals with machine learning. Physical review letters, 108(25), 253002.

ML/DL適於近似求解各種複雜分子、系統的薛定諤方程,算各種potential、electronic structure、transport property等。比如:

[2] Montavon, G., Rupp, M., Gobre, V., Vazquez-Mayagoitia, A., Hansen, K., Tkatchenko, A., ... Von Lilienfeld, O. A. (2013). Machine learning of molecular electronic properties in chemical compound space. New Journal of Physics, 15(9), 095003.

這個方向是很明確的——就是用機器學習來擬合那些物理學家用近似方法都算不好的系統的波函數、勢函數、結構等等。最重要的就是quantum many-body相關的問題了。

除此之外的方向似乎並不是很值得期待。用Deep Learning也可以幫忙處理對撞機的數據。對物理學本身來說,這個技術挺好用,但這個是技術。

你問上面的東西對CV/NLP有沒有意義?當然是沒有意義的。人家本來就是應用神經網路解決物理問題而已。

個人覺得,機器學習可以算是對計算物理的補充技術。但計算物理在物理學研究里的地位一直不太高,雖說可以算獨立於實驗物理、理論物理的第三分支,但很多物理學家還是只視其為「輔助」技術。和實驗、理論不一樣,很多物理學家認為這不算是物理學研究的重大問題。

就算機器學習可以很好的計算量子多體問題,很多物理學家還是會認為這種解決方法還不夠深刻、不夠本質,只是一種暫時的妥協。但如果想把機器學習當作研究基礎物理的殺手鐧,希望做出深刻的、突破性的成果,可能會大失所望。

物理學畢竟是一門注重基礎架構的自然科學。應用機器學習技術和物理學知識解決其他領域的問題可能更有施展的空間。算一些化學、生物學、地質學、大氣學的問題,只要能算出來,這些community多半是樂於接受的。

最後,雖然【機器學習很難在物理學研究中產生深刻的、突破性的成果】,但我還是堅持認為【物理學是可以對機器學習研究貢獻深刻的、突破性的成果的】。

覺得現在的深度學習像蠻荒時期的物理學。

那個【天不生牛頓,萬古如長夜】的時期。

今年沒多久,PRL又出爐了神經網路的paper——(神經網路)學習的隨機熱力學。不是用神經網路解決物理學問題,是用物理學方法分析神經網路。我覺得後者就是踏在【對機器學習研究貢獻深刻的、突破性的成果】的正確道路上;後者對於深度學習,對於CV/NLP才是有意義的。

[3] Goldt, S., Seifert, U. (2017). Stochastic Thermodynamics of Learning. Physical Review Letters, 118(1), 010601.


基本上所有物理的結論都是用微積分的某種形式表達的,包括薛定諤方程。

微積分的最基本離散化近似是有限差分,就算是有限元也很容易變成循環矩陣。

而有限差分和有限元絕大多數情況下可以表達成「卷積」形式。

什麼?你知道深度學習裡面有個東西叫「卷積」網路?

所以,什麼物理定律,卷積網路要是覺得它有用自然會去學到的,哪怕最終目的不是為了解決某種物理問題。

此答案僅代表個人觀點,跟本人實驗室和導師無任何關係。


第一篇文章我仔細看了一下,首先看到自己做的這個領域越來越火是件好事,不過也說明要出好的文章更要努力。

  1. 我已經看過一些工作將卷積網路應用在二維材料上(石墨烯,BN,包括有沒有缺陷)。我看不出二維toy potential能解釋什麼新的物理。
  2. 這篇文章只考慮了單電子的情況,按照 @葉洪舟 的說法是暴力擬合。而且無法證明這個toy model可以在更大的系統上,或者只是多幾個電子的情況下同樣工作。
  3. 這篇文章沒有顯示能量的histogram,我懷疑模型表現好的那些例子里,會不會本身能量就比較平滑。

用機器學習來解決物理問題,一種情況是學習這個體系的解,用特定的系統訓練,然後在類似的系統上預測,以此加速計算(機器學習的預測比直接解方程省時間)。另一種是加入一些物理上的「經驗」,在一些模型上學習,但是得到的模型可以應用在任意體系,這才是真正的用機器學習來學習物理。現在大家(包括我自己)基本上都在第一種情況下積累,每個工作都有不足的地方,因為我們多多少少把機器學習當作一個黑箱,就好像物理史上熱力學的階段。希望這個領域的研究者能夠迎來量變到質變,讓機器學習真真的學習物理。

-----

我的博士研究主要就是用機器學習的辦法來得到比較好的泛函近似:

  1. Pure density functional for strong correlation and the thermodynamic limit from machine learning
  2. Understanding machine-learned density functionals
  3. Understanding kernel ridge regression: Common behaviors from simple functions to density functionals

看到這個方向越來越熱對於物理學家來說是好事,畢竟有新的坑可以填了。


恰好和第二篇文章的作者當面聊過,目前也在做相關問題。

機器學習做物理確實很早就有了,甚至你可以認為物理學是自然科學裡應用機器學習最早的一個方向之一(以前在高能做數據分析的就有很多機器學習的應用)但16年的這篇文章是完全不一樣的。

神經網路解量子物理問題的可能有一個優勢在於神經網路自帶一些nonlocal的特性,而之前我們主要還是算的local hamiltonian,然後感覺出現了一些量子Monte Carlo的類似物。對於不同的相互作用,不同結構的網路可能會有不一樣效果,也就是針對不同的系統可能需要有不同的網路。於是有一大批基於第二篇的工作就出現了。不過第二篇只是一個demo,解的問題其實很簡單,一個TFI一個AFH,但是這個思路很好。

神經網路態(NQS)實際上出發點和矩陣乘積態(MPS)看起來更像一些,仔細讀過之後感覺反而不那麼像boltzmann machine。當然張量網路的方法本身和神經網路就很像,而且現在張量網路本身也被機器學習方向的人關注,畢竟要解決的問題是類似的。並且也由一系列嚴格的定理保證了它能夠近似任何量子態,並且能夠簡單地通過增加神經元的數量提高精度。

我目前沒有覺得物理學這個方向的研究能對CV/NLP產生促進,因為演算法沒變,倒是可能對物理學的貢獻應該蠻大。

而且具體實現這個演算法的時候你就會發現機器學習框架里的一堆數學函數都用不了,很多機器學習演算法里用element-wise的東西比較多,但是即便是一個rbm在物理背景下網路里也得用一堆直積,除非像文章里一樣抽樣算。用tensorflow或者mxnet的話,不少輪子還得自己寫,而且得按照tf的方式寫,這可能也是當時作者手擼全部代碼,還沒寫深度學習版本的原因之一了(深度學習版本最早是段路明老師一月份的一篇arxiv做的)。


謝 @葉巍翔 邀。

很慚愧,作為一個物理出身的,只能了解個大概意思,雖然是也搞過點電子態電子結構研究,但是畢竟太實驗了,理論懂得太少。只能說點沒什麼乾貨的個人感受吧:

我覺得理論物理越發展越離不開數學和計算機,因為作為物理,畢竟要拿出來理論預言的具體數和實驗觀測對比才有意義。量子物理問題從一開始就集中在這裡,薛定諤方程好列不好解,於是很多問題在建模本身的時候就在非常大的程度上考慮計算的可行性。通過機器學習,利用神經網路擬合波函數和勢場來解薛定諤方程給這個難題提供了一種新的思路,我個人感覺還是挺有意思的。可能神經網路目前來看還不如DFT等傳統的擬合方便和有效,但是有個新的方向我覺得總是好的(我又不做這個,管它最後走不走得通~)。

PS: 離開學術界之後發現自己越來越落伍啦,不過反而對簡單粗暴的東西越來越有好感,可能是因為目前的工作就是簡單粗暴的原因,也可能就是因為自己越來越懶了吧。


謹慎樂觀。

如果哪天可以做一大部分密度泛函理論(Density Functional Theory)計算做的事情就好了,那將是真突破。。


我覺得從這個回答來看物理的做ml的最大問題在不懂ml……

1.ml解決物理問題?別逗,這只不過是ml把原來數值計算中的如維數災難,model reduction一系列難做的部分用一個nn替代了而已………對推動理論物理毫無作用。而且前段時間和一個做流形學習的討論的時候說dl來做數值,他直接說so you don"t have proofs. 從應用角度這個可能沒大問題,從理論角度你做的東西毫無保障

2.用物理做ml,嗯這個肯定未來會很重要

那問題來了

這和數學做ml區別在哪裡…………

而且現在最大問題是,物理這些結果隔靴搔癢,沒法解釋真正work的地方,感覺就是學dl的時候,這個式子好像啊,類比一下的感覺………

物理做ml的有很厲害的

現在挺欣賞Surya Ganguli (Stanford University)的系列工作的


不僅僅用來解quantum的問題好。。用來解決統計物理的問題更好。。

https://news.upenn.edu/news/penn-researchers-solve-decades-old-question-about-glass-transitions

http://www.pnas.org/content/114/2/263.abstract

Glasses and machine learning

http://www.nature.com/nphys/journal/v12/n5/full/nphys3644.html

http://www.nature.com/nphys/journal/vaop/ncurrent/full/nphys4035.html#ref19

http://www.nature.com/nphys/journal/v12/n5/full/nphys3757.html?WT.feed_name=subjects_soft-materials

用Deep learning 做glass transition的研究。。SVM 也能上。。是個處女地。。但是GPU貴,一般老闆都沒錢買不起GPU。。。


不請自來。

本人物理小白,在考慮神經網路和量子物理是不是具有等價性。

卷積過程和量子力學的傳播子很類似,同樣在使用變分或能量最小化等優化技術。

二者或許可以描述同一件事。不是誰擬合誰的問題,而更像模擬,是同一個問題的兩種表達方式。

請各位大牛指正!!!


魏晉學者郭象,為了解決道家理論自洽性的問題,提出了自化而相因的概念,認為正是靠著萬物自化而相因的作用,世界才能達到玄冥之境。

對於2、3個物體自化而相因的問題,大多能通過數學物理方法進行求解,但當自化而相因的物體更多的情況下,即所謂的多體問題,傳統方法就無能為力了。而基於測不準原理的多量子體,更是難點中的難點。

對這樣的難點,人們通常用一些理想情況或者統計物理學的方法進行粗略描述。近幾十年興起的複雜科學,也對多體問題的研究產生了推動作用。但多體問題過於複雜,不確定因素太多,所以一直以來進展不大,但這種複雜而不確定的問題,往往會成為人工神經網路的拿手好戲,比如識別問題、工業上的pid控制等,多個物體自化而相因的問題,成為人工神經網路技術的下一個獵物,其實也是順理成章水到渠成的事情。

從某種意義上來說,自化而相因的多量子體系,本身就可以看成一個人工神經網路,因為人工神經網路,本身就是萬物自化而相因的理想數學模型。而現階段的人工神經網路技術,並未在硬體上有大的突破,只是利用現有的馮諾衣曼計算機的模擬,深度學習技術,只是模擬技術的一次革命,該研究人員的進展,只是利用這種革命性的模擬技術,讓多量子體系的有了更精確的描述。而要進一步突破的話,還得依靠人工神經網路技術的進一步發展。除此之外,此類研究也給用多量子體系構建人工神經網路打下了一定基礎。也許有一天,我們靠著自化而相因的多量子體系,也能到達人工神經網路的玄冥之境吧。


推薦閱讀:

「隨機」的本質是什麼?
以下量子力學中平均值計算中為什麼會出現一個矛盾的結果?
打算學習量子力學,有哪些基礎書可以推薦一下?謝謝!?
我舉一個」利用量子糾纏實現超光速信息傳輸「的案例,大家找一找有什麼毛病?
如果光速降到一半,我們的世界將會變成什麼樣子?

TAG:量子物理 | 神經網路 | 深度學習DeepLearning | 卷積神經網路CNN |