量子計算機會不會取代今天的計算機演算法技術?
本問題已收錄進圓桌:動態 - 將科學研究進行到底
更多討論歡迎關注
謝邀。
這次圓桌的第一個問題。
現在學界的主流意見是,在可見的未來,不會。
無論從現有的理論還是從實際來看,在短期內(50年?)量子計算機都不會完全取代現在的電子計算機。更可能的是兩者共同繁榮。
學術界目前的主要研究方向也是這樣,用量子計算機去運行特定的程序,在傳統計算機吃力的領域出力就行了。
原因有兩方面。
1)首先從量子演算法理論來看。量子計算機需要特定的量子演算法才能發揮出量子計算的強大威力。但是,並不是所有的計算都可以用量子演算法加速。雖然量子演算法絕不會比傳統演算法慢,但能像Shor演算法和Grover演算法那般完全超越傳統演算法的其實比較少見。不少問題上我們暫時都還沒有得到很好的量子演算法。
(不過,人工智慧/機器學習里很核心的優化(optimization)過程卻很幸運地與量子計算是天作之合。這個之後再說。)
2)再從實踐來看。Dwave這家量子計算機公司開發了世界第一款商業量子計算機。但實際上,這款量子計算機不是通用量子計算機,並不能運行所有的量子演算法。Dwave實際上是一台量子退火機(quantum annealing machine)。它的主要工作方式是調整伊辛模型的參數來構造滿足某優化問題所對應的量子態,再用量子退火演算法來求解。(Google願意花1000萬美金買一台Dwave,再建立Quantum AI Lab就是看中了Dwave在人工智慧上的強大功能。目前512qubit機所模擬的最複雜的人工智慧問題都能在1s左右解決。)
通用量子計算機是一個超出目前科技水平太多的技術。以至於大多數科學家更願意研究具有特定量子結構的量子計算機,用來執行特定的量子計算功能。比如說Google有一項量子計算需求,就為此配一台能專門完成這項量子計算的量子計算機就能運行的很好,搞不定的部分再交給電子計算機處理分工處理就行。
想一想量子退火機尚且要在20mk的溫度下才能運行。通用量子計算機得多麼複雜、精密且昂貴,而且至今沒有好的方案。量子點、核磁共振、量子光路、超導環等所有可能的途徑都有科學家在研究。
為了闡述結論,這個答案主要針對的是量子計算機目前的缺陷。
最後也說一點正面的,免得想把做量子計算的小朋友們嚇跑了。。
因為通用量子計算機困難很多,所以量子計算機是很難全面取代傳統計算機。
量子演算法相比經典演算法有天然的優勢。量子演算法的上限和潛力遠高於經典演算法。
一方面,就是因為0和1可以被一個量子比特同時儲存,一個量子比特需要用兩個數描述其疊加態。N個量子比特可以儲存2^N個數,算一算2^N可以是N的多少倍。如果未來出現一台量子計算機的算力超過地球上所有經典計算機之和請不要覺得奇怪。
另外一方面,量子計算機是可逆計算機。這是許多人會忽略的一點。經典計算機則是不可逆計算機。不可逆計算過程每一個比特的操作都會有熱損耗。集成度越高,散熱越困難。摩爾定律會在7nm左右時停下,最多還有十年,這是業界的普遍觀點。摩爾定律失效後,提高計算能力只能靠堆積核。這種靠堆積帶來的計算能力上限也很低,能耗又高,又不能小型化。如果像突破經典計算機的極限,我們必須要攻克量子計算機這個難題。量子計算機意味著:無能耗。能做多小做多小。一個計算能力超過經典計算機之和的量子計算機只需要一顆紐扣電池就能驅動也是理論上可行的。一塊手錶的計算能力甚至可以超過超級計算機,而且只需要一塊紐扣電池就能驅動它了。(這是因為,量子邏輯門操作全部是可逆變換。整個過程不產生熱量。所以理論上,耗能可以降到極低。)
但是,當數據太大時,Google之類的企業會很願意使用具有特定量子功能的機器。現在需要超級計算機的地方,目測會成為未來量子計算機首先投入使用的地方。
雖然有種種困難,但是大家普遍認為量子計算很快(10年)就能在人工智慧領域發揮作用了。因為量子退火機Dwave可以在人工智慧領域完全地發揮出量子計算功能。這也是Google建立Quantum AI Lab的主要原因。
在自然科學領域,量子計算可以很高效地模擬諸多自然過程,會成為相關領域科學家的一大利器。所以用量子計算機模擬自然現象有著巨大的吸引力。
還有一點很重要的,2008年我們才知道,基於量子邏輯門的標準量子計算與絕熱量子計算(adiabatic quantum computation)是等價的。我們可能不需要按照傳統計算機一樣做出邏輯門就能進行量子計算。而量子退火就是絕熱量子計算過程——製備量子態,等其絕熱演化到基態,基態直接就能給出計算結果。想一想這是多麼恐怖的計算能力,大自然本身就是絕佳量子計算機。自然演化就是計算結果。這種絕熱量子計算方式甚至不需要我們構建量子邏輯門。
【Lloyd S. The universe as quantum computer[J]. arXiv preprint arXiv:1312.4455, 2013.】
所以,Dwave也有可能在未來被改進成能順利執行所有量子計算功能的通用型量子計算機。這給我們帶來了新的曙光。
【Aharonov D, Van Dam W, Kempe J, et al. Adiabatic quantum computation is equivalent to standard quantum computation[J]. SIAM review, 2008, 50(4): 755-787.】
量子演算法還可以分分鐘暴力破解銀行密碼。這個大家都知道。
隨著人類的數據量越來越大,大概會有多種類型的量子計算機走入我們的生活。當然,目前來看我們還是始終還是需要一台簡單的通用電子計算機。
量子計算機雖然短期內不能取代經典計算機,但卻是人類科技文明的一個里程碑,是未來科技的引擎。
相關答案:怎樣看待中國即將發射的量子科學實驗衛星? - 知乎用戶的回答
ps.這次這篇量子計算機的答案算是最近寫得最周全的一篇,能給出一個概貌。之前的答案大多都是只描述了一個方面。最好是綜合起來看。
歡迎糾錯。
傳統計算機的運行是對bit(位)的操作,從一串二進位數變成另一串二進位數;決定兩串二進位數如何轉化的是邏輯門。
量子計算機的運行是對qubit(量子位)的操作,從一個量子態演化到另一個量子態,決定兩個量子態如何演化的是量子門,其實質是一個遵循量子力學的Unitary Operator(幺正算符)。
以上特質決定了兩種計算機的演算法有根本不同。其一,qubit是可疊加態(這意味著量子計算機可以進行真正意義上的並行計算),而bit必須只能取0或1之一;其二,qubit的演化必須是幺正的,而bit之間如何變化沒什麼具體約束(一個簡單的例子:量子態的演化必須是可逆的,而傳統計算機里很多邏輯門都是不可逆的,例如與非門)。
作為量子演算法的兩個經典例子,傅里葉變換的Shor演算法和最短路徑的Grover演算法,就應用了量子計算機的獨有特性。兩者的計算複雜度分別是和,而相應傳統計算機演算法的計算複雜度分別是和,差距一目了然。
簡單補充+總結:1. 任意一個傳統計算機演算法,均有其相應量子計算機演算法可模擬;2. 存在不能被傳統計算機演算法模擬的量子計算機演算法(可以稱為「真正」的量子計算機演算法),如上述兩例。因此,只要造出了位數和現有計算機相近的量子計算機,那麼傳統計算機演算法被取代是必然的事情。可惜,這一天還遙遙無期。首先要有優於常規演算法的量子演算法能夠解決實際問題,這樣研發量子計算機才有動力。在上世紀80年代就有一些量子演算法出現,例如判斷一個函數是常函數,還是平衡函數。但是這樣的問題都是人為設計出來,因此也沒有引起大家的重視。直到94年,Shor提出多項式時間的量子演算法來解決大數分解問題,直擊RSA公鑰體系,從而帶來量子計算研究的一個小高潮。緊隨其後的Grove搜索演算法,以及進入21世紀後的量子隨機行走,都因為問題不夠有意義和量子加速不高而只在學術界受到關注。近年來,Lloyd提出使用量子演算法來做機器學習,可以在時間和空間上都帶來指數加速。這一下,無論學術界和工業界都打了雞血了,而且經過20年的積累,量子計算機也不再那麼虛無縹緲。因此,谷歌,微軟等科技公司都開始投入力量來爭奪這個技術制高點。實用量子計算機的問世時間將比預測的更加提前。
(本文版本:Alpha版)
在渺小的我的有生之年不會。
計算的成本決定了不會。
從製造與運行上來看,量子計算機的單元的成本是傳統計算機的單元成本根本無法相比的。現在的內存條,16G可能不到400元RMB,一顆1000塊錢的處理上可能會集成10億個晶體管,單次運算功耗也在向皮焦(pJ, 焦爾)邁進,人類半導體工藝上七十多年來的巨資投入使得傳統計算機的單元造價和運行功耗低到了令人不可思議的程度。可以預見,在未來十年二十年內計算成本仍然會進一步下降。
量子計算機很厲害、很牛逼,但它的目的不是與傳統計算機競爭。量子計算機對於人類的巨大吸引力在於:它可以解決某些傳統計算機無法解決的問題。但是,這並不意味著量子計算的成本是低廉的。相反,量子計算的成本非常高昂。面臨非凡的大自然的無數問題,作為人類已知的終極加速器,量子計算機是人類的福音,也或者是最後的稻草。它使得人類始終探索自然的腳步得以繼續前行,使其將智慧的曙光灑向星辰大海。而正是這種意義的存在,使得人類不惜千金萬銀,也要將它從上帝的後院中給召喚出來。
實現有效的量子計算是非常困難的。
量子力學中的疊加和糾纏,使得多個量子比特能夠提供指數級的狀態空間。而單個量子門的操作則可以同時對指數級的狀態進行翻轉,極為高效地實現了大規模的、傳統計算機領域所說的單指令多數據(SIMD)操作。這是量子計算機內凜的越大規模並行能力,也是說它牛逼的根源。而用專業術語來說,就是量子圖靈機的計算效率超越了圖靈機了,也就是量子計算機相比於傳統計算機可具有量子加速。
有得必有失。並行是好事,但當每一步操作都需要並行而無法對單個數據直接操作的時候,如何設計一個量子演算法來解決實際的問題就成為了一個極大的困難。理查德·費曼於1982年提出了使用量子系統模擬量子系統的構想;大衛·道奇三年後給出了量子計算機的數學模型——量子圖靈機——以及第一個量子演算法,然並卵,這只是用來猜謎玩的。但直到將近十年之後,皮特·肖爾才提出大數分解演算法,可用於破解RSA加密(RSA加密是人類公認的最安全的加密演算法),從而第一次證明了量子計算機可以用於解決實際的問題,也一舉打消了當時人類對量子計算機實用性的懷疑。雖然此後不斷有新的量子演算法出現,如Grover搜索演算法(類),量子化學模擬演算法等,但數量遠不可與傳統演算法相提並論。因為合格的量子演算法有一個標準:它的複雜度須比已知的最好的對應傳統演算法的複雜度要低。這導致有人以為現在仍然只有五十個左右的量子演算法。可想而知量子演算法的設計之困難。
量子計算難以實現,更在於物理實現上的難。
第一,為了製造出量子比特,需要使用極為苛刻的環境條件。為了利用超導震蕩電路的量子基態,超導量子比特需要被維持在20mK的溫度(-273.13攝氏度)。離子阱量子比特中需要利用射頻電磁場將單個或少數幾個離子囚禁在很小的空間範圍之內。而為了維持這樣環境,巨大的經費開銷是必不可少的。
第二,然而,即使有了如此苛刻的環境,量子比特在製造或操作的過程中總會有各種干擾、誤差,從而導致量子比特的壽命極為短,操作的可靠性也十分低。當今世界上最好的超導量子比特壽命也只有200us左右,連1ms都不到,其門操作的錯誤率達到了約0.1%。而離子阱的壽命略長,但也就是秒的級別,操作的可靠性大約也在三個九左右。對比於CMOS器件(壽命可認為是無限長,各種計算操作的錯誤率只有不到),可知量子比特的脆弱。需要兩方面的投資來解決這個問題。一是,利用更先進的設備,從而製造出參數偏差更小的量子比特,提供參數更為精準的環境條件來提高量子比特的壽命和各種計算操作的可靠性。這需要錢。另一方面,利用很多的量子比特來構建一個邏輯比特。這個過程可以簡單地理解為小羅漢們疊出來的大羅漢更高、更牛逼,壽命更長,對錯誤的容忍程度也更高。小羅漢們叫物理qubit,大羅漢就叫邏輯qubit。量子計算的執行在邏輯比特的層面上進行。這個我們稱為容錯計算,或者說量子糾錯編碼技術。多少個物理qubit足夠構成一個可靠的能夠完成特定計算的邏輯qubit?不同的問題這個值要求不同,但對於分解2000位大數的肖爾演算法而言,有人估算這個數字是4000左右吧。當計算所需的邏輯比特數目增加時,所需的物理比特更是同比增加。由此可見一個邏輯qubit是多麼的昂貴,而這卻僅僅是量子計算的一個基本單元。同樣還是那個「有人估算」,為了分解2000位的大數,需要的邏輯qubit的數量是4000個。所以最後需要16000000——也就是大約兩千萬——個物理qubit。
第三,可糾纏的qubit的數量小。雖然我們的理想是兩千萬個物理qubit,但骨感的現實是:人類至多才能糾纏約20個qubit,今年5月由因斯布魯克大學在離子阱qubit上實現。對於超導量子比特,這個數字是9。對於光子,這個數字是10+。而如果qubit之間沒有糾纏,那麼量子計算機根本無法獲得前面所說的量子加速。為了增加可糾纏的qubit數量,這不僅需要苛刻的製造和運行環境,也需要外圍輔助電路的變革和升級。當然,這也是錢。(註:D-Wave現在具有上千個qubit,但它們的糾纏屬於自發糾纏,不具可控性,不在此討論範圍內。)
現在量子處理器仍處於研究階段,為了能夠製造具有兩位數的量子晶元,研發投入已經達到了上十億美元。隨著技術的積累,可以預計製造成本會大幅下降。但就現在最有希望的兩種技術而言,如果沒有革命性的突破,其製造運行成本及糾錯成本始終是個掣肘。兩相比較之下,對於非巨型的計算,傳統計算機比量子計算機更有優勢,在絕大部分的中低端、大部分的高端應用上的會更有親和力。
科學技術的進步正以人類難以估量的速度在進行。人工智慧已經出現了自我學習演算法。又有誰能夠預料,在未來的百年之內會有何種革命性的突破。那時量子計算會是如何,現在的我們若想預料,那只是有若玄學。且看吧。想了想 還是寫答案吧 關於量子機 可以看我寫的答案
量子計算機能夠模擬人腦的嗎? - Goliath Li 的回答 雖然贊同數不多
先回答問題「量子計算機會不會取代今天的計算機演算法技術?」
可以看出題主不怎麼了解演算法,我假設他想表達「量子計算機會不會取代現在的傳統計算機」 也就是電子計算機,基於電子線路。
會取代,前提是可以實現通用量子計算機,並且定義出圖靈等價的量子機語言。問題來了,
1。什麼是通用計算機? 根據圖靈自己的話講,「不僅可編程,而且可再編程」(詳見《模仿遊戲》,至於電影是否還原了他的話,我沒考究。)
專業版解釋:通用計算機就是可以用代碼的形式模擬任何計算機的機器。
通俗版解釋1:計算器大家都用過,其實這就是一個非通用計算模型,而普通說的電腦就是一個通用機,程序員可以寫個計算器程序,用電腦模擬計算器算算數的功能。通用機不僅能模擬非通用機 也能模擬通用機,例如play station就是通用機,而電腦可以裝ps模擬器來模擬ps的運行環境。再或者是裝虛擬機,來模擬電腦,可以裝其他操作系統。
通俗版解釋2:如果1看不懂,想想我大天朝的印刷術。雕版印刷對應於非通用機,一但刻出來,能印刷的內容就無法改變了。活版印刷對應於通用機,可以通過排版的方式來模擬任何一個雕版印刷。
那麼對應的通用量子計算機,就意味著可以通過編碼的形式模擬任何一台量子計算機的運算。
2。什麼是圖靈等價語言?其實現在基本上所有的計算機語言都是圖靈等價。簡單的講就是剛剛所說通用機模擬計算機時候用的編碼,而圖靈等價意味著任何一台計算機都可以被編碼,而且編碼唯一。
再說對於量子計算人們普遍的誤區
1. 經常看到媒體說一個量子比特不僅能儲存0或者1,還能同時儲存0和1.
嚴格的說這樣說法錯了。一個量子比特表示的是一個|0&> 和|1&>為基地的希爾伯特空間上的一條單位向量。如果是用這種表達方式來說那麼經典比特表示的就是這樣一條向量,其中a為0或者1,如果a為0,比特為1·,如果a為1 比特為0。因為a的取值只可能是0或者1,所以經典比特只能表達0或者1兩個可能。但到了量子比特,一個比特就是,其中為虛數,並且。 所以一個量子比特的可能性就又取值的數量決定,而他的取值是整個複數空間上的單位向量,所以可能性有無限多種,而且可能的取值有阿列夫1(詳見集合論,教你如何進入康德打開的地獄之門。)由此可見,我們其實可以將人類所有的信息寫在單獨的一個量子比特上。
但是!這不代表我們可以從一個量子比特上讀取到無限的信息,因為讀取這一操作會使量子比特坍塌到本徵態上 也就是0或者1,所以,雖然我們能將無限的信息寫入,但我們只能讀取0或者1。
2. 量子計算機可以做經典計算機無法做的事情
這種說法是因為不知道什麼是「可計算」什麼是「計算複雜度」。所謂計算機能解決的問題,是指在不考慮時間和空間的情況下,能夠解決,有寫問題可能會用很長的時間,但最終能在有限時間內得出答案。而那些不可計算的問題,是指無法在有限時間內解決的問題。
在這種情況下,經典機無法計算的問題,對於量子計算機依然無法計算。所以兩者計算能力相同。具體證明,參見圖靈機停機問題。
3. 量子計算機更快
這個說法不準確,剛剛說了可計算。這個速度的問題就是複雜度。可惜的是對於經典機來說無法迅速解決的問題,也就是NP-complete,對於量子機依然是NP-complete。至少目前來說如此。所以,量子計算機雖然比經典機更快,但增加的速度無法達到明顯效果。
4. D-wave是量子計算機
他不是通用機,所以意義不大。
最後說說量子計算機現在的情況。
2012年諾貝爾物理獎,內容就是單個的量子比特控制。去年英國人宣稱可以有效的控制單個量子比特了。這確實是一個階段性的成果,但距離實用的通用機還非常遙遠。
我們現在的計算機的最小單位就是門電路,簡單的說就是開關。現在量子機的情況,僅僅是只做出了第一個開關,想想看如何用你手邊檯燈的開關來構建一台計算機?挺遙遠吧。
=============更新============
5. 量子計算機是不確定系統
量子計算機的計算結果確實是隨機的,但這不代表他是一個不確定的系統。因為對於給定的輸入,計算過程中整個量子系統任何時間的狀態都是確定的,可以用一個張量積來表達。唯一隨機的只有最後觀測的這一步,會服從系統最後的概率分布坍塌的某一個本徵態上。
量子計算機的硬體成本跟電子計算差不多,並且在演算法方面的理論基礎也差不多的情況下,當然會取代。
只是那都不知道是什麼時候的事情了。
個人覺得取代是必然的,只是在有生之年可能是看不到的。
結論就是:被取代是必然的,但是要發展起來還有很多的技術難點。
《三體》裡面為什麼智子干擾對撞機的結果就可以鎖死地球人類的科技,可以說跟這個原因也有關係。
這個就是非計算機專業的人的理解了。
剛有汽車的時候,大多數人還是會騎馬——我們的有生之年,電子計算機就是馬,量子計算機就是汽車。作為半個圈內人,簡要談一下跟多位leaders of the field討論之後的看法:
1,普適量子計算機(universal quantum computer)在20年內被研製出的可能性不大。這裡討論的UQC指類似於經典計算機的可以在上面編程以實現多種任務,而不是D-wave這樣只能實現某種任務的量子退火機。
2,即使UQC被研製出來,也會像第一台計算機那樣,體積極大,需要在極端條件(比如低溫)下運行,用某大牛的原話「need hundreds of full time engineers instead of tens of grad students to run it」,離推廣到家用不知道還有多遠。
3,目前學量子計算的有一半都是eecs專業。舉個例子,caltech與量子計算相關的研究所(IQIM)在計算機系而不是物理系的樓里。現在很多人在研究量子演算法,quantum complexity等更多是cs而不是物理的方向,目的是找出哪些經典計算機無法完成而UQC能完成的問題,比如大數分解,以及相應的演算法。換句話說,我們還在尋找哪些問題需要用量子計算機解決,目前絕大多數問題不需要量子計算機。量子計算的優勢在於大規模的並行計算。如果一個問題需要進行大規模的並行計算,並且能夠進行大規模的並行計算,那麼就可以採用量子計算。
所謂計算機,就是承載實現某種計算模式的工具。自古以來,就有很多種工具。現在數字電子計算機是以萊布尼茨二進位、布爾邏輯代數為數學基礎,以門電路為硬體基礎,以馮.諾依曼為工程體系結構的一種計算工具。
由於二進位的運算規則簡單、門電路的製造簡單、馮.諾依曼工程體系結構的清晰簡潔,所以帶來了今天的繁榮。現在的工作就是將某種問題映射到這個二進位的代數領域來,並進行求解。
人們也在嘗試尋找其它的計算模式及其物理載體。
自然界存在眾多的計算模式,退火過程就是一種,蟻群也是一種。其它的計算模式還有很多,包括曾經存在的模擬電子計算機背後的計算機制。順便說一下,現在很多研究都是將問題映射到這些計算模式(比如模擬退火演算法),再由數字電子計算機來實現這些計算模式。
因此,量子計算機有兩個問題:找到一種計算模式,並在物理上實現之。
以前是利用量子的糾纏態模擬數字電子計算機的二進位和門電路,但是這麼多年過去了,受到量子物理理論的限制,對量子糾纏態的觀察和控制仍然是巨大的難題。
現在人們試圖回到過去的模擬電子計算機這條路上。模擬電路,很難搞,因為物理器件的原因。而且,模擬電路一旦固化後,就不象門電路那樣好修改或者可以修改。但是量子的模擬狀態的變化過程(退火),就好得多。
至於問題的求解,這個倒是做得很多,無非就是把一個計算模式映射到另一個計算模式,比如把旅行家問題映射到模擬退火。相信量子退火的映射,不會比現在的映射更難。倒是問題的輸入(量子狀態的控制)有相當的難度。
看到最高贊我就放心了,畢竟50年後我肯定不會做程序員了
其實量子計算機的計算速度並不一定比普通計算機快,它只適用於特殊情況,需要特殊的演算法,即多種運算同時進行時才能彰顯其魅力。 可看個簡單易懂的視頻,六分鐘帶你走進量子計算機
http://v.youku.com/v_show/id_XNjA0NTkyNjE2.html
如果結繩記事也算上的話,現在的量子計算機大概在算盤的地位上,我們慢慢等吧。
不會。現代程序包括兩個部分的邏輯,一部分是人腦邏輯的條理化,一部分是針對機器限制的優化。無論基礎技術如何發展,第一部分都不會丟失。
肯定會取代電子計算機。這和當年問PC是否會取代計算器是一樣的道理,當年以為PC造價遠高於計算器並且只適合處理對於當時來講複雜的信息之類的,結果……。量子計算機才剛開始而已,或許它能做到的將遠超我們現在人所能想像的,同樣或許我們因為它的種種優勢會接受它的市場價格。就像人能接受上千萬一套百平米的房子是一個道理。
低於50年
依據是人類第一台計算機到家用電腦普及也就是50年左右 周期只會更短
其實可以切回到1946年 大家怎麼看計算機與自己的關係
簡短回答
量子計算機最大的問題在於觀測,也就是說就算其演算法和硬體都沒問題,那也只有一定概率其結果是預期那樣。
這個概率是不可能100%的,因為如果可以100%,那麼就是去量子的特性了。量子計算機是超越現有數學物理基礎上的超級計算機?
應該會在AI上面很大的站住腳,硅管非黑即白,沒有模糊概念,量子機有,但是別的方面不好說,兩者並存可能性最大。
問題提得有錯誤,技術和演算法完全是兩碼事。估計題主不是CS出身的吧
「演算法」是數學問題,你可以用一支筆一張紙去實現,也可以用隨便什麼計算機去實現。舉個例子,冒泡排序和快排序就是兩種排序演算法,和用計算機/紙張沒任何關係。
量子計算機就算真的大行其道了,那也是在處理一樣的數學問題。不管有什麼樣的計算機,NP問題永遠是NP問題,能不能解決要看數學家的。
推薦閱讀:
※為什麼感覺國外的程序員更專業?
※程序員真的干到 35 歲就干不動了嗎?
※不上網,我們會缺少什麼?又會獲得什麼?
※開啟瀏覽器的「Do Not Track」後,會對瀏覽造成什麼影響?
※程序員的理想是什麼?