如何看待谷歌物理學家 John Martinis 宣稱十年後機器學習將全部量子化?
上周,谷歌宣布他們的量子計算機比傳統計算機快上1億倍。《 麻省理工科技評論 》刊文稱谷歌物理學家John Martinis認為在10年之內,「 除了量子退火機以外,他還能為Google建造出其他形式的量子計算機,甚至比量子退火機還更強大。它將被稱為通用量子計算機(universal quantum computer),可被編程來處理任何問題,而不僅僅是一種數學問題。」並認為「(現有) 機器學習演算法真的是一種愚蠢的做法,(因為機器學習演算法的實現)需要學習太多的範例。……機器學習將轉變為量子學習。這可能意味著軟體可以從混亂的數據,或是較少的數據,甚至是在沒有明確指示的情況下進行學習。」
請問:谷歌量子計算機的這一突破是不是宣布了現有機器學習演算法的死刑?也就是說,現在人們辛辛苦苦投入大量時間、精力習得的機器學習技能,在10之後(也許不用10年)就將被掃進歷史的垃圾堆,那麼現在我們還有必要花大量時間學習prml、統計學習、凸優化、概率論與隨機過程等知識嗎?是不是應該馬上放棄傳統機器學習技術,轉而學習量子計算機技術,著手研究量子機器學習?
謝題主邀。
John Martinis是UCSB的教授(不要叫谷歌物理學家了吧聽起來好奇怪啊..),是業內非常厲害的量子計算機專家。和大多數量子演算法專家不一樣,他的特長是Make,把機器造出來。
Martinis的確開了個地圖炮,「機器學習演算法真的是一種愚蠢的做法」。確實有一點在座的各位都是垃圾的意思... 可能是因為他的確覺得傳統機器學習在量子機器學習前不堪一擊。
不過,他真的沒有說「我預測,在10年內最後只會剩下量子機器學習——你再也不用傳統的方式來工作了。」這句話是Google的Neven說的。而Martinis教授的回應是,「我喜歡這一點,但實現它挺難的,他(Neven)可以用嘴說,但我必須建立並實現這一想法。」
所以結論就是,一個利益相關的非量子計算機專家Neven放了個嘴炮,Martinis教授做了謹慎回應。
正如Martinis老師委婉的回應所說,「十年後機器學習將全部量子化」這件事非常非常困難。「十年後Google的機器學習將全部量子化」都非常困難。「十年後Google有一個商業機器學習系統量子化了」的可能性才稍微大一點。
導師的第一篇量子機器學習文章是在2009年。那個時候機器學習領域頂會的審稿人還根本沒人懂這些工作的意義。以至於一篇文章拖了大半年才發表出去。這個領域的發展絕對沒有Neven說的那麼完善和順利。
量子學習會讓很多應用性質機器學習知識變得沒有太多用處。很多技術的半衰期是非常短的。沒有一個確定的目標就盲目追逐新技術會讓人疲於奔命。
但是統計學習理論、凸優化、概率論這些數理知識是永遠不會過時的。這些知識的半衰期遠遠超過人類的壽命了。量子學習理論也是在統計學習基礎之上構建的。
首先,大部分的量子機器學習演算法暫時還沒有shor演算法這種把時間複雜度降得這麼多,對計算資源的需求也很大。具體的演算法介紹可以關注我的專欄。給一些瞎扯的回答點了沒有幫助。
個人認為更好的機器學習演算法還得靠統計/計算機/神經科學等的研究,用機器學習作為工具研究物理也許是一個很棒的方向。
當然最近量子玻爾茲曼機表現出了更低的KL divergence,也許能讓人有一些啟發。
如果沒有強烈的興趣,建議大家對量子(不是quantum inspired)機器學習演算法保持觀望的態度即可。不必大驚小怪。學術界的態度也應該還是比較謹慎的。量子化模型很有意思,但一個研究範式完全取代另外一個研究範式沒那麼快,而且量子化的理論至少在自然語言處理領域還沒什麼起色。
我是抱著矛盾心態看著量子計算機的,搞物理(精神烏托邦)希望這些炫酷的東西能幫助社會,同時工程上的經驗(商業短淺目光)卻總是讓我猜疑其短期潛在價值。
十年是要打問號的,如果要替換掉目前的機器學習框架成小樣本學習框架,用不著等量子計算機呀,傳統計算機意義下就可以做了,這目前很多人也要作的,即使算不動也可以做呀。反觀,目前google的dwave只是模擬量子退火,很多機器學習演算法是凸的,用這麼複雜的方法猜測會起反作用。我猜,John Martinis強調的機器學習是指具有spin glass屬性的學習演算法,也是dwave的benchmark之一,如果真有,做深度學習就是酸爽,但是做個推薦系統,矩陣補全的看看,目前演算法壓橫看豎看沒有必要這樣干。而且,不見得深度學習未來就能統一所有機器學習的框架,支持所有業務呀。
我更擔心的是目前的機器學習方法,如深度學習這些,過一陣子都又到了瓶頸,優化再快也無用了。
民科一下,好像彭羅斯研究人腦意識的時候,認為意識的本質是量子關聯?還是量子准激發來著?搞意識的量子計算會有意思多了。。。^_^
按照我的理解,量子計算機的核心優勢就是快。
速度快就可以在短時間內對複雜的機器學習模型(概率圖、深度神經網路等)進行精確求解,而不需要採用各種近似目標函數、啟發式初始化等方法降低計算量。目前一個七八層的深度神經網路訓練1T的數據大概幾百台機器的分散式集群需要求解一個月,如果有了量子計算機,也許就是幾分鐘的事情。真正的人工智慧想要實現,想必是需要量子計算機助力。
機器學習模型本身並不關心求解過程是採用的2進位計算機還是量子計算機。機器學習背後的數學理論是統計,而統計是在計算機誕生前就存在的學科,不過計算機誕生過對該學科有很大的推動,也許量子計算機出現後由於新的解法出現,統計學也會出現創新,也會出現新的機器學習模型。
但是這一切都是建立在最基礎的統計學習理論之上。萬丈高樓平地起,基礎都是1+1。量子力學都發展這麼多年了,但哪一個量子物理學家不是先從牛頓物理學開始學的。
不要好高騖遠,量子化也肯定離不開基礎知識。量子計算機的突出特點就是快,因為底層所使用的物理技術與傳統計算機的0/1晶體表示方法有所不同,所以,量子計算機能夠突破傳統計算機的性能瓶頸。然而,與傳統計算機而言,個人感覺編程模式甚至編程的概念都會有所變化,然而,這些變化只是使用方法上的變化。
這就好比你要從A城市到B城市,有火車,有飛機,也有大巴,當然也可以選擇步行,量子計算機就好比飛機,而目前的計算機就好比步行。然而,不管怎樣,你的出發地和目的地是完全相同的。
一個演算法有輸入輸出,演算法的輸入就好比出發地,輸出是目的地,這些是不變的,因此,現有的機器學習技術經過改良後仍然可以適用於新的計算模型。
機器學習演算法最初學者使用CPU來運行,後來隨著GPU的出現,很多學者轉向了GPU來做加速。從底層硬體的這一改變來看,演算法方面更多的只是做了一些並行化工作,最核心的內容仍然沿用CPU的那一套東西。量子計算機現在處於的階段還是一台機器只能做一個演算法,按照普通計算機的發展階段,也就是還在組電路門的階段。不太了解10年後能不能發展到商用的水平...... 不過量子計算絕對是解決一大類計算問題的出路,有了量子計算,確實很多的機器學習演算法也就過時了。
趕緊出來吧。應該靠譜吧,量子計算機的架構問題前兩年就聽說有人在搞,挺來錢的。
有很多好的方法,都是因為scalability的問題在那裡攔著不能用,我們需要高性能廉價的機器。其實不清楚為毛量子計算機會影響機器學習,量子計算機在軟體層面是表現出來的單純是計算能力的提高么?求解。
不用慌什麼,當計算能力不是問題,能直接遍歷不用pruning的時候不少演算法就該退出歷史舞台了,正常的新陳代謝。也會產生諸如密碼之類的新問題。
一線做開發的不用擔心,寫tool的肯定要考慮怎麼設計留介面更方便程序員去使用。比如起源自數學工具的各種魔改……
量子計算機我不懂,量子力學我不懂,連目前的計算機都不精通,機器學習也只是略有涉獵。但,你把PRML、統計學習與凸優化、概率論與隨機過程放一起是幾個意思?你認為的機器學習就是這些東西,還是這些東西就是機器學習?踏踏實實學基礎理論吧,別動不動想搞個大新聞。至少把數學學好,最低限度也把概念搞清楚。
物理系的就業率能提高么?
谷歌的技術他能拉你十條街,但是技術產品出來後的應用設計,你可以輕易的拉他十條街。
真正有前景的是電子神經網路,量子計算就是皇帝的新裝,十年後估計大家都看穿它了。
推薦閱讀: