當前量子計算技術前沿是什麼水平? [2](轉自知乎)
1 人贊了文章
(六)量子計算到底難在哪?進展到哪一步了?
這是2013年 Michel Devoret 和 Robert Schoelkopf 發表在 Science 上的「量子計算台階圖」。下一層實驗是上一層實驗的基礎;但這並不是一個直線升級過程——為了上一個新台階,在它之下的所有台階都必須不斷優化。所以,我們站的越高工作量就越大,量子計算機越往後做越難。
圖上的前三層大致對應量子力學的三大詭異屬性——疊加、糾纏、測量。到目前,主要的量子計算實驗系統(不計「拓撲量子計算」)都已經站上了前兩層。但不是每種系統都站上了第三層。
迄今為止,沒有一種系統完成了第四層(量子糾錯、邏輯量子比特)。
開頭說過,人們研究量子計算遇到的麻煩大多都能歸結到各種形式的量子測量。
對經典計算機來說,數據輸出是很直接的——按高低電平區分二進位數就好。然而,量子計算的過程一般只涉及幾個基本能量量子,比如一次電路量子電動力學色散讀出 (dispersive readout) 一般只用5到10個微波光子,如此微弱的信號如何測量?要知道,世界上最好的半導體微波放大器(液氦溫度下工作的高電子遷移率晶體管 HEMT)放大一個光子大概要添20個光子的雜訊。另外,單量子水平的測量一般都要改變粒子的量子態,甚至直接毀滅粒子(比如光電倍增管的原理就是通過光電效應將入射光子轉化為電流並放大,但測量之後被測光子直接被吸收)。總之,想從量子系統中高效地讀出信息是件非常困難的事。
對量子計算來說,最理想的測量是 single-shot 量子非破壞測量 (quantum non-demolition measurement)——測量不毀滅被測粒子、第一次測量後粒子狀態不再改變、每次測量結果都可分辨。對於離子阱和金剛石色心,這可以通過激光熒光 (laser-induced fluorescence) 實現。但超導人造原子只有微波躍遷,且微波光子的能量只有光學光子的十萬分之一,單光子探測非常困難。2010年後,這個問題終於由電路量子電動力學色散讀出加量子極限放大器 (quantum limited amplifier) 解決——後者是也是一類極低溫下工作的超導電路,放大一個光子只添一個光子的雜訊,這是量子漲落導致的海森堡極限。對量子極限放大器的發明貢獻最大的是耶魯大學 Michel Devoret 實驗室和伯克利加州大學 Irfan Siddiqi 實驗室。這讓超導量子電路成為第一個站上台階圖第三層的人造系統。
第四層(邏輯量子比特)困難就更大了,原因還是量子測量——理論構想中,我們總希望人是量子計算機的唯一觀察者。可實際上,環境無時無刻不在對量子系統進行測量。這種測量會導致量子計算機與環境產生糾纏,不再保持理想的量子純態,逐漸失去量子相干性,這個過程叫量子系統的退相干 (decoherence)。從信息的角度講,量子信息會逐漸丟失在環境中而不是進入我們的測量裝置,實驗者是在與環境搶信息。量子信息丟失的時間就是這個系統的相干時間 (coherence time)。目前,最好的超導人造原子的相干時間大多在10到100微秒之間。也就是說,直接用它們做成的量子計算機最多只能連續工作萬分之一到十萬分之一秒。
任何量子系統都無法避免退相干。更麻煩的是,相干性與可控性之間有密切聯繫——相干時間越長,表明系統與環境越隔絕,但這同時意味著它和人也越隔絕,對它的控制和測量也越難。我們總是希望量子計算機與環境隔離,但容易被人控制,這本身就是矛盾的。現實中,不同物理系統的相干時間會有很多數量級的差別,但相干時間越長的系統邏輯操作也越慢(比如天然原子、離子),在相干時間內能完成的運算量差別並不大。所以,不談控制、測量的速度和精度、單純強調某種系統相干時間長是沒有意義的。
由於退相干,量子計算機一度被認為永遠不可能做成,直到量子糾錯 (quantum error-correction) 概念的出現。
糾錯在經典信息技術中就很常見。最簡單地,我們可以對信息複製多個副本來防止個別副本的誤碼,這與重要文件一式多份防止篡改同理。但是,未知的量子態是不可複製的,我們不能為量子信息製作多個副本。新的思路在1995年出現——我們可以把一量子比特信息分散存儲在幾個高度糾纏的量子比特里,通過測量錯誤徵狀 (error syndrome) 來查錯糾錯。單獨的天然或人造原子稱為物理量子比特,多個物理量子比特糾纏形成容錯的邏輯量子比特。經過量子糾錯,邏輯量子比特的壽命會遠超過物理量子比特的相干時間,這才是真正計算意義上的量子比特。
到目前,任何實驗系統都沒能做出邏輯量子比特。沒有量子糾錯的「量子計算機」就只能在相干時間內做一些最簡單的運算。Google、IBM 等公司近兩年一直在比拼晶元上「量子比特」的數量,但它們都只是壽命幾十微秒的物理量子比特,邏輯量子比特的數量都是零。
量子糾錯是人們研究量子計算機迄今為止遇到的最難的問題。在我的理解中,它的實現將是當代量子科技的第三個里程碑——人類從此有方法保護在自然界中轉瞬即退相干的量子態,就好比從原始人從採集到種植、從狩獵到畜牧;在工程上,它將為大型通用量子計算機提供基本邏輯單元。當下量子計算最大的挑戰就是實現邏輯量子比特,而不是在一塊晶元上集成多少物理量子比特。
量子糾錯理論在90年代末就達到了第一個高潮,其中最重要的成果是 stabilizer code。然而問題遠沒有這麼簡單:查錯、糾錯的過程都是複雜的多比特量子操作,本身就會引入錯誤。stabilizer code 只有在量子邏輯門本身精度非常高的情況下才會有效,否則就是糾錯過程中出的錯要比不糾錯還多。舉例來說,如果用三級 Steane 7比特糾錯碼級聯(432個物理量子比特編碼一個邏輯量子比特),對一個130位的整數分解質因數需要大概一百萬個物理量子比特,且比特和邏輯門的出錯率不能超過百萬分之一。這在短期內是任何技術都無法企及的。所以,stabilizer code 儘管非常簡潔通用,但受到當前實驗水平的限制,不是實現邏輯量子比特的首選。
新一代的量子糾錯方法通過放棄通用性來降低對實驗精度的要求——糾錯碼不再是抽象的數學方法,而是為特定實驗系統、特定電路結構專門設計。但這帶來一個結果:不同團隊就如何爬第四個及之後各個台階的路線出現了明顯的分歧;即使做同一種物理系統,也會因為不同的實驗方案選擇不同的糾錯碼。在超導量子計算領域,目前主要的路線有兩條:一是平面結構、單片集成、使用 surface code 糾錯;另一條路線是三維結構、模塊化集成、使用玻色糾錯碼。以下將它們簡稱為 Google/UCSB 路線和耶魯路線。
A. Google/UCSB 路線
Surface code 本質是一種拓撲糾錯碼,它用超導量子電路的具體實現方案由UCSB(現Google)團隊與理論合作者在2012年提出。它的基本物理組成非常簡單:近鄰耦合的超導人造原子按照平面方格(國際象棋棋盤)排列即可。它對量子操作精度的要求遠低於 stabilizer code,當前最好的實驗水平幾乎已經達到。這種路線受到很多團隊、特別是商業公司實驗室的歡迎,Google、IBM、Intel、Regetti Computing 都選擇平面集成大量 transmon 人造原子,其中 John Martinis 帶領的 Google 團隊在工作質量和思路創新上明顯領先。
但是 surface code 的劣勢也是非常明顯的。它的基本單元很簡單,但代價是系統極其複雜,電路規模巨大。目前,Google 9比特晶元中的兩比特邏輯門保真度 (fidelity) 約是99.3%,要提高到99.5%以上才有用 surface code 進行量子糾錯的可能。但即使邏輯門保真度再提高十倍(這非常非常困難),實現一個邏輯量子比特也需要幾千個物理量子比特,質因數分解一個5位數需要約四千萬個物理量子比特,分解一個600位數需要約十億個物理量子比特!要知道微電子學經過了半個多世紀的發展,今天的 Intel Core i7 晶元上才有十億個晶體管。並且量子電路的集成並不像經典電路一樣直接——晶元做大會大大增加量子比特之間的串擾和雜訊,想維持小規模電路的質量非常困難。所以,通過 surface code 實現量子糾錯,並不比大規模運行 Shor 演算法這種遙遠的宏偉目標簡單多少。
選擇 surface code 的商業實驗室都明白這一點。但他們在宣傳上幾乎都對此少談或不談,轉而強調不經過量子糾錯的小規模量子電路可能的實際應用。但如第(三)部分所說,50到100個相干時間幾十微秒的物理量子比特是否真有實際應用現在還很不確定。於是這些團隊再退而求其次,將近期目標設為實現 quantum supremacy——在實驗上證明量子電路在解決某個特定問題時比所有經典計算機都快。2016年Google 團隊在理論上提出,49個物理量子比特可以在隨機量子電路的輸出採樣這個特殊問題上超過所有經典計算機,這離當前的技術前沿並不遙遠。Quantum supremacy 一旦實現將會是量子計算威力的第一次真實展示,也因此成了各個商業實驗室短期內競爭的焦點;但這個實驗的象徵意義遠大於實際價值——這個量子電路算得更快的問題是專門為驗證 quantum supremacy 設計的,並不是一個實際問題。Google 團隊及其理論合作者也多次公開表示,quantum supremacy 只是通向實用量子計算的長征上的一個近期階段性目標,目的在於演練對小規模量子系統的控制能力;僅實現 quantum supremacy 的晶元依然不能做任何有用的工作。
B. 耶魯路線
2013年起,耶魯團隊與其理論合作者提出了另一種非常不同的量子糾錯方案——用諧振腔內的微波光子作為邏輯量子比特,超導人造原子僅用來控制和測量微波光子,通過量子非破壞測量對微波光子的宇稱 (parity) 做持續追蹤來實現糾錯。按編碼邏輯量子比特的光子態的不同,具體的糾錯方法有 cat code、pair-cat code、binomial code、GKP code 等很多種,統稱為玻色糾錯碼(光子是一種玻色子)。以微波光子做邏輯量子比特有很多好處——諧振腔內光子的壽命長、能級多、誤碼原因簡單(光子損耗)、與超導人造原子相互作用強…… 更重要的是,這是一種高效利用硬體的糾錯方案——一兩個物理量子比特和一兩個諧振腔就能構造一個邏輯量子比特,不像 surface code 需要成千上萬個物理量子比特。過去五年里,耶魯團隊已經對 cat code 進行了大量實驗,在2016年突破了量子糾錯的 break-even point——第一次在實驗中測得邏輯量子比特的相干時間長於它的所有物理組成;在2018年初實現了誤碼徵狀的容錯測量,將邏輯量子比特的相干時間提高到1.9毫秒,遙遙領先於其他團隊。另外,分別位於巴黎高等師範學院、芝加哥大學、清華大學的幾個實驗室也都在用相似電路結構進行玻色糾錯碼的實驗研究。
玻色糾錯碼的實現難度也很大。我們需要非常巧妙地設計系統中超導人造原子和微波光子之間的相互作用,來實現一些精巧的人造量子光學過程(例如四光子泵浦等)。另外,如何糾正多光子損耗、如何平衡各種玻色糾錯碼的利弊等問題都很挑戰。但在當前進展下,這些難題很有希望在短期內被攻克,而不是非常遙遠的目標。
總結說,Google 路線是先集成、再糾錯,基本單元簡單,電路規模龐大,主要難度在於工程複雜性;耶魯路線是先糾錯、再集成,電路精簡,主要難度在於精巧的量子光學過程。但無論哪條路線,最重要的都不是物理量子比特數量。
耶魯路線無需集成大量物理量子比特就有希望實現邏輯量子比特。Google 路線需要大規模平面集成,但比數量更重要的是質量——數量做大並非難事,真正困難的是如何在晶元做大的同時保證每個量子比特的相干時間以及量子邏輯門和量子測量的保真度。這也是 Google 團隊過去幾年工作最出色的地方:5比特、9比特晶元上每一個物理量子比特的質量幾乎都與單獨測量的時候一樣高,並希望能延續到22比特 Foxtail 晶元。這個數字不是隨便選的——與5比特、9比特的一字排開不同,22比特將採用雙排排列,這是形成二維陣列的第一步,將帶來很多晶元結構和工藝的新挑戰。這就是量子電路研究,每往前一步都要無比謹慎,越往下走越難。John Martinis 一向以治學嚴謹甚至苛刻聞名,在他的領導下 Google 團隊正在高質量、有章法地沿著自己提出的路線步步為營。然而不是所有團隊都像這樣紮實,這兩年超導量子計算領域最流行的宣傳賣點就是量子比特數,不考慮量子糾錯方案、不強調控制和測量的精度,好像誰的晶元上物理量子比特多誰就領先了一步。各家 IT 巨頭和創業公司動不動就在新聞或年會上「發布」一塊多少比特的晶元,以證明自家的「進展」和「競爭力」,這樣是純粹的商業炒作,在科學上沒有意義。2018年3月5日早上,Google 團隊的 Julian Kelly 在美國物理學會三月年會一場邀請報告的最後簡單展示了一下計劃中的72比特 Bristlecone 晶元的設計版圖(我就在會場),這根本不是那場報告的重點;但它立刻被宣傳成「Google 發布72比特量子晶元」,甚至在半天內席捲中文媒體,朋友圈裡排隊轉發,還引發了各種一本正經的對當下「量子爭霸」的「戰略評論」,實在讓人覺得荒唐。看過這些亂象,我向大家推薦三條屢試不爽的經驗判據:
所有以量子比特數作為首要亮點的「進展」幾乎都是炒作
所有在新聞媒體上首發或大肆渲染的「進展」幾乎都是炒作(包括麻省理工科技評論,那是一家獨立運行的商業創投雜誌,不是學術期刊)
所有在朋友圈裡大量轉發、被非專業人群大量關注的「進展」幾乎都是炒作量子糾錯之上的各個台階(邏輯量子比特的控制、糾纏、測量,到最終的容錯量子計算)難度只會更大,具體有哪些挑戰現在還無法預計,因為我們的實踐還根本沒有到那個階段。不過在這方面耶魯團隊再次領先一步——2016實現兩個諧振腔之間的糾纏、2017年底實現光子收發 (photon pitch-and-catch),2018年初通過量子隱形傳態實現兩比特邏輯門 (teleported CNOT gate)。這些都是直接對邏輯量子比特的操作,只是微波光子還未經量子糾錯。耶魯路線允許我們現在同時開始挑戰第四、五、六個台階,一系列結果還是非常振奮人心的。
相信以上都看下來的童鞋已經明白,量子計算是一條越爬越陡的天梯,我們現在還只處於很初步的階段。我們遇到的問題會越來越多、越來越難,但我們解決問題的能力也會越來越強。大型、通用、容錯量子計算機什麼時候做出來?任何明確答案都是不負責任的,因為它太難做、未知挑戰太多、現在我們根本沒法給出負責任的估計。用另一條經驗判據結束這一部分:
在現階段,所有「多少年後做出量子計算機」的承諾都是炒作。
(七)量子計算何時商業化?
進軍量子計算的商業公司很早就有了。2007年,在學術界還在研究基本的物理量子比特的時候,一家叫 D-Wave System 的神秘加拿大公司突然宣布自己做出了一台量子計算機的原型機 Orion。Orion 不是一台基於邏輯門的通用量子計算機,而是一台量子退火機 (quantum annealer)。它有16個超導量子比特,但不對量子比特做單獨控制,而是用絕熱演化的結果求解一些特定問題。之後,D-Wave 的退火機越做越大,2011年推出128比特的 D-Wave One,這是世界第一個量子計算商品,售價1000萬美元,被軍火巨頭洛克希德·馬丁 (Lockheed Martin) 公司買下;2013年推出512比特的 D-Wave Two,被 Google、NASA、USRA 聯合買下;之後在2015和2017年又推出了1000比特和2048比特的 D-Wave 2X 和 D-Wave 2000Q,全都找到了買主。這些聽上去很厲害的 D-Wave 機器到底有多強大?這在十年來一直爭議不斷。問題是,科學家甚至說不清 D-Wave 退火機到底是不是一台量子機器。D-Wave 機器里有沒有量子糾纏?一些實驗表明很可能有。那 D-Wave 機器有沒有量子加速?絕大部分測試表明沒有。特別在2015年,一支合作團隊(包括 John Martinis 在內)用 D-Wave Two 最適合解決的專門問題對它的計算複雜度隨問題規模的增長規律做了嚴謹的測試,結果是這台512比特的機器沒有任何量子加速!這一大堆量子比特放在一起到底發生了什麼?誰都說不清楚。不過測試 D-Wave 機器的過程很大程度上幫助科學家們明確了量子加速 (quantum speed-up) 的嚴格定義。另外一點是很有趣的:人們用一堆量子比特很容易地就造出了一台自己不理解的機器。直到現在,基於量子退火的絕熱量子計算 (adiabatic quantum computing) 還是量子計算中的一個比較獨立的分支,不少人都在繼續發掘它的潛力,希望它能對解決一些特定的優化、模擬問題發揮作用。
量子計算真正的商業熱潮從2014年開始——Google 全員買下了 John Martinis 在聖芭芭拉加州大學的實驗室,成為「 Google 量子人工智慧實驗室」的一部分,並立刻給這群低調的科學家配上了強大的宣傳團隊。各家 IT 巨頭紛紛坐不住了,各種專營量子計算的創業公司也開始出現。
目前,各種參與量子計算的商業公司主要分四類:
第一類是 IT 或工業巨頭,其中 IBM 和微軟上場遠比 Google 早。IBM 十多年前就在 Waston 研究中心建立了以耶魯畢業生和博士後為骨幹的、頗具規模的超導量子計算實驗室和理論組。IBM 的量子實驗室曾經專註於紮實的基礎研究,領取政府經費,與大學實驗室無異;直到幾年前才開啟商業競爭模式。
微軟很早就在聖芭芭拉加州大學內建立了 Station Q,專註於「拓撲量子計算」理論,也曾是完全的學術導向。這兩年微軟在荷蘭 Delft 理工學院、丹麥哥本哈根大學、澳大利亞悉尼大學、美國馬里蘭大學、普渡大學、Redmond 總部都新建了 Station Q;最重要的是,把這一領域最有影響力的兩位實驗物理學家 Leo Kouwenhoven 和 Charles Marcus 收入麾下。
Intel 2015年起也不甘落後,並且兵分兩路,在 Delft 理工學院與 Leonardo DiCarlo 實驗室(前耶魯博士後)合作發展超導量子電路,同時與 Lieven Vandersypen 實驗室合作發展硅量子點。
通用汽車公司與波音公司聯合所有的 Hughes Research Laboratories (HRL) 也已經在半導體量子點方向投入多年。
……
第二類是大學教授兼職創辦的新公司,支持與轉化自己學術實驗室的成果。
2015年底,耶魯超導量子計算實驗室的領導者——Robert Schoelkopf 和 Michel Devoret 與研究員 Luigi Frunzio 創辦 Quantum Circuits, Inc.,2017年11月完成 A 輪1800萬美元融資。
2016年,馬里蘭大學實驗物理學家 Christopher Monroe 與杜克大學電子學家 Jungsang Kim 創辦主攻離子阱的 IonQ, Inc.,2017年7月完成 B 輪2000萬美元融資。
2018年初,因斯布魯克大學實驗物理學家 Rainer Blatt、Thomas Monz 與理論物理學家 Peter Zoller 在政府和大學的支持下創辦離子阱公司 Alpine Quantum Technologies,也已得到1200萬美元經費。
……
第三類是自主創業、有完整硬體實驗室的新公司。其中最有名的是位於加州伯克利的 Rigetti Computing,由耶魯博士畢業的 Chad Rigetti 在2013年創辦,現在融資已接近7000萬美元,員工近百人。
第四類只做周邊軟體產品。這樣的公司這兩年出現了很多。
這些「量子企業」到底多有希望?我的個人觀點是:不同類別公司的性質是非常不同的。
第二類(學術實驗室 spin-off)會對當前的量子計算髮展非常有幫助。量子實驗正朝著越來越複雜的方向發展,除了核心的物理原理外還涉及大量的工程細節,其工作量已接近傳統大學實驗室的極限。此時,來自專業工程團隊的支持,例如標準化的零件、加工工藝、專用的電子設備、控制程序將會極大地提高科研的效率。這類公司一方面解決實驗中的工程問題,另一方面將學術實驗室的成果做大做規範,這是一種非常良性的互動。不過,它們短期內一般沒有很大的盈利計劃,規模也很小。
第一類和第三類公司都有很強的盈利目的,但都自建或接管強大的實驗團隊,身體力行做量子計算機,在工作和宣傳方式上也都很類似。它們的主要區別在於承受風險的能力不同,巨頭企業更能承受長期投入而不見回報的基礎研究(當然這也很容易導致項目下馬)。
當前量子計算的主要瓶頸顯著集中在物理實驗,離開硬體基礎提出的各種過於超前的軟體概念實際意義非常有限。但這恰恰成為近幾年量子商業熱潮的焦點。第四類企業主營的有面向量子計算的編程語言、編譯器、雲服務,還有其它各種把信息技術概念前面加上量子兩個字,組成一些聽起來高大上、但實在不知道是什麼意思的名詞。這些開發成本低、周期快、新聞效應強(龐大的 IT 業界都能聽懂),但其實與量子沒有直接關係。在我看來,它們是純粹的商業行為,重點是借當前的量子熱潮用「概念」盈利,無關於量子計算的主要挑戰和長期發展。換句話說,這些公司就沒打算真做量子計算機。
所以,量子計算商業化了嗎?沒法說,因為眼下的「量子產業」處於一種奇怪的形態。經過二十多年的發展,「量子硬體」仍明顯在拖「量子軟體」的後腿。可以預見至少在未來的一二十年里,量子計算的最大挑戰還將集中於基本的物理實驗和複雜、開放量子系統的物理理論,將長期是一種基礎研究。但這幾年它被突然推到了產業的浪潮里,人類歷史上都幾乎從沒有過一種基礎研究如此受到產業界關注。大家在物理實驗還非常原始的情況下,拚命地尋找它可能的實際應用,開發各種周邊產品和「服務」,配合及其高調的宣傳,竭盡全力地尋找商機。產業界是現代科技發展的一大推動力,但我不認為眼下這種形式的「商業化」會明顯促進量子計算的發展,也不認為這波熱潮能持續多久。量子計算面臨的不只是工程挑戰,還有許多基本的科學問題,很有可能屬於「世紀難題」。它與現實的距離比無人駕駛、電動車、商業航天等要遠的多得多,我們千萬不能用科技產品研發的思路理解量子計算機的研究。它的真正問世需要長期、穩定的支持,而不是利益驅動的商業炒作。
(八)中國的量子計算處於什麼水平?
與美國和歐洲相比,處於很初級的階段。為什麼?首先因為量子計算不是一個憑空出現的學科,它根源於物理和工程的長期發展之上。例如,離子阱的基礎是現代原子物理;超導量子電路是介觀凝聚態物理和量子光學的結合;低溫物理有超過百年的歷史,稀釋製冷技術最早出現在1960年代,至今仍基本被歐洲壟斷;我們每天實驗用的電子設備很多都來自美國幾十年前的軍工研究…… 在這樣的積累下,量子計算非常自然地在歐美首先出現,並且持續積累、領先至今。對這一領域貢獻最大的科學家們(第五部分中提到的各位)青年時代從事的都是相關方向的基礎研究,一步步創造了各種理論與實驗方法,建立起這個活躍的新學科。
1996年,奧地利維也納大學 Anton Zeilinger 實驗室來了一位叫潘建偉的中國博士生。他參與了許多重要的光子糾纏實驗,五年後回到中科大。十幾年來,潘建偉的實驗室在多光子糾纏方面有許多漂亮的基礎工作,並且大力推廣實用化量子通信。2016年,中國發射了第一顆量子通信衛星,並在2017年實驗成功;同年,中國開通了超過2000公里的「量子保密通信京滬幹線」。目前,中國是對量子通信技術投入最大的國家,實踐上也最為領先。(關於量子通信的討論見第二部分)
但中國在量子計算方面就要落後的多。全世界頂級的量子計算實驗室本來就很少,其中的中國人更少,不少實驗室甚至從不招收未在歐美受過訓練的中國學生(主要是出於對中國學生動手實驗能力的不信任,不是什麼涉密問題)。直到這幾年才開始有訓練有素的年輕科學家回到中國。例如在超導量子電路方面,John Martinis 的博士後王浩華老師回到浙江大學,Robert Schoelkopf 的博士後孫麓岩老師回到清華大學,成為兩大陣營在中國的代表。其它實驗系統也大多如此。所以說,專業的量子計算實驗室在中國只是剛剛落地出現,經驗積累、合作者水平、學生水平都比世界頂級組差一大截,當前的主要任務是訓練團隊和基本技術,模仿、追蹤世界前沿,暫時不具備做出重大成果甚至引領方向的能力。這是所有後來者都必須經過的起步階段,是最最正常不過的。
最近,中國的量子計算已經有了非常可喜的進步。例如去年,浙江大學與中科大的聯合團隊按照 UCSB/Google 路線,平面集成了10個超導人造原子(物理量子比特)並實現了它們的量子糾纏。上周,清華孫麓岩老師的實驗室在美國物理學會三月年會上展示了一個量子糾錯實驗,很接近耶魯團隊2016年發表的工作。這都是非常好的趨勢,說明中國現在已經有了專業的、有高質量產出的量子實驗室。
但是,有一點進步就開始浮誇宣傳是非常危險的。
去年五月,我的朋友圈裡排隊轉發了一條「重大新聞」:中國研製出世界第一台量子計算機!打開一看,是中科大的五光子玻色採樣實驗。雖然這兩年早已習慣了各種誇大宣傳,但這個標題實在超出了我的想像力(正確的說是:中科大發表了一個有趣的量子光學實驗)。這種宣傳氣勢再與量子通信、「量子衛星」的新聞結合,甚至讓很多在國外讀博的同學都相信了中國的量子科技已經領先世界。最近,國內幾家互聯網巨頭紛紛開始了自己的量子「戰略布局」,但從新聞稿來看,除了一些「量子軟體」概念外,看不到清晰的物理實驗方案(與上一部分提到的第四類公司類似)。2015年,阿里巴巴與中科大建立了聯合量子實驗室,各方領導隆重出席,但新聞稿充滿科學錯誤,「中國10億人,每個人能分到10萬台天河二號」之類的豪言無異於「畝產十萬斤」。美國各家公司的宣傳大戰儘管都有誇大、避重就輕,但總體還是有尺度的;中國的浮誇宣傳完全則看不到底線在哪兒。
可喜的進步也被各種誇大。浙江大學與中科大的10比特晶元被重點強調比 UCSB/Google 多一比特,也開始加入沒有意義的比特數大戰(見第六部分最後的解釋)。其實這個實驗中量子比特的質量、控制精度、複雜度都比 Google 差很多,也沒有明顯的方法創新。這是一個非常好的、符合現階段發展需求的追蹤工作,但不應該繼續誇大。很多貌似專業的知乎答主都說這項工作至少代表中國的量子計算進入了世界第一集團,我只能說這麼認為的人大大低估了世界第一集團的水平。如果非要說這是一項「重大成果」,我只能說不同人對「重大成果」的定義很不一樣。
量子計算與科技創投、大型工程(比如土木、機械、航天)都不一樣,它不是人到錢到說發展就發展,而是一個在優秀實驗團隊主導下漫長的積累過程。為此我的另一個擔心是國內的人才儲備:中國的基礎教育乃至大學本科都是以書本為中心,非常輕視科學直覺和動手能力的培養,善於做題而不善於解決具體問題,這是大多數亞洲學生的通病。這一點不得到根本改變,中國的實驗科學還將長期落後於歐美,包括量子計算在內。這是我在耶魯實驗室工作兩年多的深刻體會。只有當高水平的實驗訓練成為了年輕學生不難得到的資源,中國的科學才真正有能力在質量上和西方競爭。
(九)結束語:我們為什麼要研究量子計算?
最後,說幾句個人觀點,涉及到自己的科學史觀。量子計算機能做什麼?破密碼、做優化、加速機器學習…… 這些還都很不確定,在短期內也很難實現。那還費勁做這東西幹嘛?我自己認為,量子計算的研究過程將是人類物質科學和工程的一次本質進步。
在歷史上,人類的大多數科技和產業革命都是物質科學(特別是物理學)推動的。變革產生的前提是人能發現新的自然現象、控制新的「自然力」、擴展在自然中的實踐範圍。學會工具、學會用火、農業出現、鐵器出現、蒸汽革命、電氣革命無不如此。但有一個例外,就是最近的信息革命。信息革命雖然以物理為基礎(電磁場、半導體、激光),但核心不是物理,而是數字邏輯。隨著信息技術的發展,軟體與硬體逐漸分離——底層硬體逐漸標準化,一步步接近物理極限,方法越來越受限制;主要的創新集中於頂層軟體,這種趨勢在今天的互聯網、人工智慧的熱潮中日益明顯。其它學科也大多如此,機械、材料等傳統的「硬工科」雖然也在發展,但很少有本質突破,對社會的影響也日趨有限。一個直接表現是,不同專業的同學集體轉計算機,「硬工科」畢業的工作機會普遍沒有那麼好。
而量子計算是物質科學引領科技發展的一次新嘗試,它第一次試圖在量子水平上構造、控制物質系統,在探索自然的同時極大地擴展了人類工程實踐的範圍,上次邁出這樣一大步也許要追溯到電氣和核能。人們現在拚命尋找的量子計算機的各種應用可能都不是最重要的,就像17世紀的人想像不到什麼是手機一樣,我們現在也根本不知道當人類能自如人造控制量子系統之後能做多麼不可思議的事情。
我認為量子計算是當前最重要的科技問題之一,儘管真正實用的量子計算機還比較遙遠。說白了有點像那句話:
We choose to go to the moon.
推薦閱讀:
※量子計算機首次正式投入商用 : 彎曲評論
※通往未來人工智慧的三條途徑:量子計算、神經形態計算和超級計算
※【施堯耘評量子計算 2018 魔道大戰】量子霸權首現,宇宙中第一個拓撲量子比特或爆發
※當人工智慧遇見量子計算
※「量子計算機」即將到來?
TAG:量子計算 |