如何看待 IBM 宣布成功研製 50 量子比特量子計算機原型機?
新聞鏈接:IBM 宣布成功研製50量子位原型機,量子計算機商業化正在加速
IBM Q 主頁:Quantum Computing
50 量子比特原型機是一個什麼水平,它在傳統公鑰密碼方案的破解上能達到什麼效果?
17-11-15 下午,新增了關於量子程序語言的內容。
有些人認為這個作為科普有點難了。我承認這一點。但是問題在於量子計算直至如今也並不是一個親民的領域,把其中的概念說的很清楚而無爭議非常困難,因為量子力學始終是一個繞不過的坎,關於測量、本徵態、Hamiltonian、酉算符、密度矩陣的介紹,哪怕僅僅在概念層次上都不得不用一堆線性代數等數學工具;而量子計算的理論方向又會涉及到P/NP,NPC,BPP,BQP,QMA,#P,P-hierarchy等等理論計算機上的複雜度概念,對領域外的人同樣不是很友好。如果你真的想要簡單的了解量子力學(特別是對量子計算有用的部分),可以參考入門級的科普讀物《上帝擲骰子嗎——量子物理史話》。本文僅僅對敢於試水的知友提供適當的信息,如果要改成爽文,那麼到其他版塊發段子或許是更好的選擇(看得又爽贊又多)。
由於我和國內幾個做量子計算物理實現的團隊還算交往比較熟(利益相關,不透露名稱),這裡說一下我的了解和看法。
量子計算領域,所實話目前是個實驗團隊硬著頭皮慢慢前進(每年加幾個qubit),理論團隊大刀闊斧(假設我有一個通用量子計算機/quantum RAM,xxxx;當然也有做複雜度等很硬的方向的),媒體大肆宣傳(我們離通用量子計算永遠只有12個月),群眾吃瓜(可以用來裝逼,撕逼)的領域(把什麼東西前面加個AI/量子就牛逼了)。縱然前景可能非常良好,但是仍然需要冷靜對待。
我之前說了,現在主流的進度是每年加幾個qubit(也就是現在一個系統估計做到12-20個qubits),但是為啥IBM突然來了一個50 qubits 的?
這裡我給一些簡單的盡量沒有數學的介紹(好吧,可能只是我不想用知乎的公式編輯器)。
回顧:構造經典計算機我們需要什麼?
如今計算機專業的人越來越多,但是又有多少人真的了解計算機本身呢?無論量子計算機,生物計算機,化學計算機,還是現在的經典電子計算機,他們都是「計算機」。
計算機,是執行計算的一種機器,計算的對象我們稱為信息。
而信息,我們使用組合「位元」的方式來表述,這些「位元」的某些組合就能表示所謂的「數據」,比如我們可以用一堆位元來表示一個整數,一個字元,一個浮點數;而這些基本的數據單元進行適當的組合就可以形成新的更加複雜的數據結構,支持我們現在的各種演算法。
如果這個位元只有兩個狀態(兩個可能的取值),那麼這個計算機我們就稱為「二進位」計算機。由於只有兩個狀態的位元易於控制,所以即使擴展到了量子計算機,大多數實現方案也是二進位的。
如今絕大多數經典計算機都稱為「電子計算機」,原因在於位元的物理載體是電路,我們用電平的高低來表徵它的兩個狀態——0和1。而電路級別的運算單元我們稱為「門(Gate)」,「門」具有重要的數學意義,因為它能夠被布爾代數所建模。
更高級別的對運算的抽象我們稱為布爾函數,它能夠將一堆位元表示的狀態映射到另外一種狀態。一個非常重要的結論是,有兩種「門」可以構成任意的布爾函數,這兩種門分別是NAND(與非)和NOR(或非),它們被稱為通用邏輯門,晶元中使用NAND較多。
最終,我們需要一個計算模型,來表示完整的計算流程。這個模型就是我們的圖靈機(Turing Machine)。由於懶我直接搬來wiki的圖,可以看到一共有7個條件:
其中我們已經知道,狀態可以用二進位位元表示,狀態的具體定義是人為的(所以有各種各樣的指令集),所以條件1,2,3,4,6,7都已經滿足;而5可以使用我們上面所說的布爾函數來構造。所以基於電路我們可以實現圖靈機這種計算模型。
圖靈機模型是一種通用計算機模型,如果有一台計算機能模擬圖靈機那麼它也是一台通用計算機。
而通用計算機的具體實現模型,最出名的一種就是馮諾依曼體系結構,它是一種實現模型,而不是計算模型(有人經常把它的地位和圖靈機搞混了)。
預備知識:通用量子計算機
現在你要造一台量子計算機。那麼我們希望怎麼做呢?
類似的,我們延伸經典計算機的電路概念,因而一種主流實現方案以量子線路為基礎,使用二進位方案。可見量子計算機和經典計算機並沒有那麼大的差距,畢竟它們都是計算機。
經典計算機裡面的位元bit,對應於量子計算機的量子位元qu-bit。其中bit的兩個可能取值(0和1),對應於qubit的兩個本徵值(0和1)。
經典計算機裡面的門,對應於量子計算機的量子門。而經典計算機的通用邏輯門(NAND)對應於量子計算機的量子通用邏輯門組 {Pauli,CNOT}。其中Pauli是使用Pauli矩陣作為Hamiltonian,可以對單個qubit施加任意的變換的門(經典計算機只有兩個類似操作,恆等變換I和取反NOT),而CNOT是二元門(和NAND一樣,輸入兩個操作數)。
CNOT 是 「controlled not(控制非門)」 的縮寫。其被定義為 CNOT(A,B) = (A, A XOR B),其中 XOR 是異或運算,即如果A取1,那麼B取反(NOT B);否則B不變(所謂「A控制B取反」)。
而經典線路中的「布爾函數」對應於量子計算中的「酉變換」。量子通用邏輯門組可以構成任意的酉變換。
如果這些門都實現了,那麼顯然按照之前的步驟,我們就可以實現任意的「量子布爾函數」,進而實現「量子圖靈機」;如果我們選擇使用「量子RAM」,「量子運算單元」,「量子控制器」等等來組成通用量子計算機,那麼我們就實現了「量子馮諾依曼體系結構」(所以說認為馮諾依曼體系結構就是經典計算機是不對的,它只是一種實現方案)。
殘酷的現實
看上去我們只要實現了兩種量子門,我們就可以進而實現量子計算機了。不過現實是非常殘酷的,就是量子計算上連「門」的問題還沒有解決。主要問題是三個:
- 量子門本身精度有問題。到現在一個精度到達0.999的CNOT門好像都沒有實現。但是對經典計算機完全不是問題,現在隨便一台民用經典計算機(手機,樹莓派,筆記本。。。)中元件的錯誤率低到正常人很難估計,並且你可以用1塊錢買幾千萬個門。
- 量子線路的可擴展性有問題。隨著線路規模的擴展,整體精度急劇下降。
- 量子位元本身的消相干。說明白點就是即使你不做計算,量子數據自己都會慢慢損壞,並且這和周圍的環境,電路本身結構,數據本身的結構都有關聯。目前超導體系(IBM這次使用的)中數據只能保持微秒量級(並且是十幾年努力的結果)。我們需要在這個時間內完成計算並把數據導出為經典數據。
解決問題的方法主要是各種糾錯和空間排布的技巧(量子糾錯碼,拓撲量子糾錯,surface coding等等),以及瘋狂降低溫度(超導量子線路需要放到可能只有幾mK的絕熱桶中)等等。
但是還是非常難,因為量子糾錯不同於經典糾錯,它要求量子門本身精度必須達到某些要求(往往非常苛刻),並且大大增加量子比特的數量,以及演算法的複雜度(很多諸如Grover演算法加上糾錯後就不那麼吸引人了)。
現在我們看看IBM的這個計算設備到底如何(分為20qubits的成熟版本,以及50qubits的測試版本):
圖中間每個圓是一個物理 qubit,而之間的連線代表可以發生相互作用(比如實現一個CNOT門)。雖然IBM沒有講明,我估計交叉點似乎也可以做一些事情?否則中間50qubits就顯得有些尷尬(因為有些qubits和其他的獨立開了,不算完整的線路)。
連線的方式很特殊,應該是為了減緩退相干等問題。仔細一看就會發現,其實20qubits這麼多qubit就串在一根線上(線頭是17和20號)。50qubits的某些部分甚至和其他的脫離了(也不排除是有其它的關聯方式),總之還是比較簡單的線路。
另外根據IBM的說法,qubit的相干時間大概是幾十微秒,已經很不錯了。
所以特點大概有四點:
- 簡單的線路
- 沒有糾錯(演算法的可靠執行步數有限,並且線路規模越大預期效果越差)
- 目前而言對量子線路來說規模算是很大了(媒體做big news有了題材
- 樂於開放平台供大家測試是挺好的
實用比現實更遠
題主問道,能不能用來破解現在的公鑰加密演算法(比如RSA)?答案是不能。
這類量子演算法中已知的演算法是 Shor 演算法。根據我做這個方向同學粗略估計,需要破解RSA-2048的量子線路所需要的最少qubit數(考慮到必要的糾錯等等)約為 個,現在這個50qubits幾乎是一個零頭(而且IBM說還在試驗階段)。
而且最近各個期刊上關於Shor演算法的實現的論文也沒有前幾年那麼多了,主要是因為做的太toy(比如分解一下3*7,再大的一些規模fidelity下降很厲害)。
不過不知道是不是應該感到好笑的是,最希望Shor演算法被實現的是一些研究抗量子公鑰加密的人,如果真的有這樣一台計算機,他們研究成果肯定會火。
這類被稱為 Post-quantum cryptography 的演算法已經有很多了,並且已經有了幾大家族(基於lattice的,hash的,code-based的)。
但是為什麼現在大家不用來替換RSA——因為不想花錢唄。在經典加密演算法中橢圓曲線比RSA(等秘鑰長度下)安全性要好非常多,但是只是因為對計算要求高了一點點,並且商業化推廣晚了一點,在公眾領域就用了很少。
回歸理性
量子計算理論方向著名的學者 Scott Aaronson 寫過一篇警告將量子演算法濫用到機器學習上面的行為的短篇,有興趣的可以看看:Quantum Machine Learning Algorithms: Read the Fine Print
這點就像現在的深度學習一樣,大家把什麼都換成神經網路就可以水paper。量子計算領域有一段時間也出現了這種情況,當時Lloyd大神搞出了一個在某些條件下指數加速求解線性方程組的量子演算法(簡稱HHL),然後一堆人把機器學習中所有需要矩陣求逆的情形全部換成HHL,然後水了大量的關於量子計算加速機器學習的論文。Aaronson 發現其中很多根本不符合原來的假設。
量子演算法的困難之處在於,它不僅要實現,人們還希望它能夠比最好的經典演算法有優勢,這個難度曲線往往很陡峭。即使過了這一關,它還要在真實的環境中發揮作用,這點就更難了。我們知道,不少理論上更優的演算法,在實際中往往因為各種實際問題而失敗,比如一些把矩陣乘法加速到 的演算法,(即使做過並行改造後)對並行計算等不是很有利,因而沒有實際大規模應用。
其實有時候我們對量子演算法期望過高,希望它們什麼都能做,但是這個free lunch恐怕來的太簡單了。但是於此同時,任何量子演算法哪怕在現實中只有平方的實際加速,那麼也足以證實它的價值。
量子計算的發展路線圖
這裡僅僅談實驗部分,因為很多人關心實現而不是繁複的理論細節。
過去十幾年到現在:原理性驗證
主要目的是為了體現量子性質。常見的做法是搞個N qubit的糾纏態,或者實現某個演算法的最小規模,比如分解 3*7=21 的質因數,或者模擬一下氫分子或者BeH2這種小分子,然後根據數據說這個線路表現得不像是經典線路。
這類論文在逐步變少,我個人覺得有些無聊。
未來5-10年:量子霸權,集成化
量子霸權有以下幾個「方向」:
- 找一個最適合量子計算但是對經典計算機最不利的問題,不關心問題是否有實際意義
- 演算法本身不要求糾錯,也對精度不是很敏感
- 要贏過最強的超級計算機
總之概括而言,「量子霸權」 就是證實至少有一個問題上實體的量子計算機可以在實際中比經典計算機快。目前這個問題主要是Boson Sampling及一些衍生演算法。
不過「最強的計算機」是很含糊的,按照目前的情況看,大概只要50個qubits(IBM這個不行,這次這個並不是來做量子霸權的)用專用線路實現Boson Sampling就行。但是問題在於超級計算機的算力卻仍然遵循類似摩爾定律一樣的另外一個定律(集成定律?)指數上漲。似乎所需要的qubits數每年都會多一些,量子計算必須跟上這個速度。
至於集成化,一個方面是希望能夠往上堆qubits,不一定要實現什麼演算法。這部分就像IBM一樣,發布雲平台和編程語言等等。
堆qubits又有兩種思路,一種是量子線路(前面說的),另外一種是量子退火。
量子退火之前 D-Wave 公司已經做過一些了,但是不少人仍然認為其沒有信服力(特別是那個號稱加速1億倍的論文,很多人懷疑是常數加速佔主,量子效應僅僅是輔助作用)。不過量子退火巨大的優勢在於可能不需要顯著的糾錯操作,更好上手,最後效果幾乎全憑測試。
量子退火一個比較期待的應用是做優化,特別是機器學習方面的 Energy-based model,由於量子退火實際加速效果很難預測(和狀態製備的純度,退相關速度等等都有關係),所以要看實驗成果了。個人認為在AI方面量子退火方案比線路方案在短期內(5-20年內)更加靠譜。
未來10-20年:量子(晶格)模擬
之前我以為量子模擬是指模擬任意體系,不過某同行告訴我近期而言一般指周期性晶格,而我說的那個算量子化學模擬領域做的。
周期性晶格的 Hamiltonian 更加簡單,量子數更少,因而更加容易模擬。這些有可能被應用在發現和研究超導物質等。
20年後:量子化學模擬,可擴展量子計算,Shor演算法,HHL演算法等等
量子化學模擬要複雜很多,它不像周期性晶格之類的可以簡化模擬內容,如果要足夠精確,需要涉及大量的量子數,這隻有qubit數足夠高之後才有戲。
而Shor 演算法和 HHL 演算法都面臨類似的問題,它們要較高的精度才能正確運行。
可擴展量子計算是這些的基礎。如果製造一個可擴展的量子計算機?目前我們還不知道。這就是業內需要嘗試的深坑了。我的某同學開過玩笑說,你猜可控核聚變和通用量子計算,誰先能實現?
[附] 量子編程語言
可能有一些程序開發相關的人員對量子領域編程比較感興趣。
由於量子資源非常稀缺(一個qubit也不能浪費),量子語言的表述層級甚至比機器語言還要低——量子語言是精確到位級和門級描述的語言,這和Verilog/VHDL的描述層級差不多,但是量子語言本身的語言特性可以非常高,一般都是高級語言。
量子程序語言和經典的程序語言一樣,也分過程式和函數式,另外還有標記語言。
標記語言類似XML/JSON,用來描述量子線路。這在比較早期的量子編程語言很多使用這種方案。但是缺點非常明顯,就是不靈活(線路變大後幾乎不是人能幹的事情,就好像用CAD畫個CPU內部線路平面圖的方式來編程),而且缺乏交互特性。
後來的一些量子編程語言一部分是函數式,大多改自Haskell;另外一部分是聲明式,原型相對比較雜。
有人可能奇怪,為什麼人們會想到把函數式語言應用到量子編程上(這樣不就難上加難了嗎)。這是因為量子程序語言中和普通程序相比,非常重要的一點是缺乏「賦值」的語義,更準確的說是不允許「值拷貝」,但是可以聲明賦值(賦初值),或者移動(複製的同時刪除原來的實例)。這是因為受「量子不可克隆原理」的限制。而函數式編程語言天生就是immutable的,所以語義上比較接近。
但是考慮到受眾可能對Haskell並不是很熟,我還是決定介紹過程式語言。
由於微軟在程序語言方面還是相對靠譜的,搞出了C#(過程式,靜態類型;近年來和Java差異越來越大)/F#(聲明式,靜態類型)/F*(F#的擴展)/Typescript(腳本語言,過程式,動態類型,帶靜態類型注釋檢查擴展)/Dafny(可驗證程序語言,互動式證明),可以說覆蓋種類很廣泛了。所以我想微軟在量子編程語言方面也不至於太差。
所以這裡使用微軟最近給出的一個關於量子計算的小例子(「Hello world」)來讓大家淺嘗一下量子編程。
下面選擇的圖片來自 Microsoft makes play for next wave of computing with quantum computing toolkit
這個複雜(至少對於其他語言的hello world而言)的例子只做了一件事情:移動1bit的數據。這其實是著名的「量子遠程傳態」過程(之前潘院士的量子衛星做的事情之一也是這個),它能夠將一個qubit攜帶的狀態轉移到另外一個qubit上。不過這個過程是「離域」的,也就是發生移動時,兩個qubit不必任何物理上的直接接觸(經典情形下兩個存儲單元必須要有線路連接)。不過這也不是「超光速」,因為必須傳輸一個經典的bit才能完成整個過程(這個過程怎麼也繞不過,而傳輸經典bit是受光速限制的)。
好的,我們來看看這個程序各個部分幹什麼。描述過程中我借用C++的一些符號和概念。
首先是程序的大致語法結構:
// 常量
One // 1
Zero // 0
// 過程標識符,代表一個操作(某些門的組合)
operation (&
Body {
// 過程體
}
}
// 這些是類型
Result // 經典比特的類型
Qubit // 量子比特的類型
// 這些是量子門,對qubit進行門級操作,就地解決,沒有返回值
// 這樣就避開了 A = H(B) 這種賦值的語義
void H(Qubit) // Hadamard 單量子門
void X(Qubit) // Pauli-X 單量子門
void Z(Qubit) // Pauli-Z 單量子門
void CNOT(Qubit, Qubit) // CNOT 雙量子門
// 類型的轉換
void SetQubit(Result, Qubit) // 給qubit賦初值,初值來自經典bit
Result M(Qubit) // 測量Qubit,使得Qubit從疊加態「坍縮」到本徵態(這個Qubit會失去原來的值),並返回結果。
// 特殊標識符,這些標識符是為了兼容經典的賦值概念,只給經典bit使用
mutable // 聲明一個為左值的經典bit,一般保存數據用
let // 聲明一個為右值的經典bit,一般作為中間量用
set // 給左值對應的經典bit賦值
// if 等等差不多,這裡就不說了。if 只能給經典變數使用
// using 語句
using 語句用來分配資源,看看代碼就能猜出來,不細講
然後過程調用等等都類似通常的語言。
然後就是具體的內容
EPR 操作
EPR 來自 Einstein–Podolsky–Rosen paradox ,愛因斯坦當年為了強調量子力學的怪異性提出了這個悖論(然後那篇論文就成了可能歷史上空前絕後的錯誤的,但是引用數最多的論文,因為現在幾乎做EPR相關方向的論文都會把當年那篇引用一下,然後結論說Einstein的結論不對),其中Einstein提出了一個特殊的狀態,稱為EPR-pair,現在又稱 Bell state(這是因為Bell 後來簡化了EPR pair並提出了可檢驗的Bell不等式,人們通過檢驗Bell不等式證實了量子力學在這個問題上的正確性)。而製造這樣一個EPR-pair的操作就是程序中這個EPR,它可以讓兩個qubit最大地「糾纏」起來。
下面我們來看 Teleport
我並不指望多數沒有接觸過量子計算的人理解這個步驟到底發生了什麼,只是希望能夠體驗一下這個操作流程。如果希望了解具體的原理可以自行搜索 Quantum Teleportation
程序中 here 和 there 就是兩個輔助傳送的qubit。我們最終的目的是把 msg 轉移到 there 上。首先,我們把here和there在本地變成一個EPR pair。
EPR (here, there)
然後我們把 there 扔到幾百公里外的對方手裡(這種操作程序里寫不出來)。
然後過了若干時間,我們想把一個名為 msg 的 qubit 的狀態傳遞到對方的 there 上。
方法是首先用CNOT和H門將 msg 和 here 耦合起來。
然後測量 msg 和 here 這兩個 qubit,結果分別為 m_msg 和 m_here,注意到測量結果一定是經典 bit。注意到這個時候 msg 已經被測量破壞了(需要記得測量qubit得到經典bit一定是破壞性操作)。
然後我們用光纖將 m_msg 和 m_here 發送給接收方(代碼中沒有體現)。
如果 m_here 是 1,那麼就對 there 進行 X 門操作;如果 m_msg 是 1, 那麼就對 there 進行 Z 門操作。
這個時候,there 的內容就會變成 msg 原先的內容,而msg的內容被破壞,所以這是移動而不是複製。
注意到 there 和 msg 並沒有任何直接的接觸。
至於 TeleportTest 就是分配資源然後調用過程運行測試,沒有特別多可以說的。
先說結論:只是原型機,並不是真的做出來了。
關於量子計算機知乎上已經有很多介紹,這裡簡要說一說。
量子計算機,基本操作單元區別於傳統的bit,我們稱之為qubit,它最大的優勢在於量子並行性和量子疊加態的性質,可以在一些問題上以多項式時間處理傳統計算機需要指數時間處理的問題,比如大數分解(Shor 演算法),資料庫搜索(Grover搜索演算法)。
(有一些問題能否用量子計算解決還存在爭議,在此先不列出)
所謂通用型量子計算機,指的是可實現通用型的演算法設計,實現基本的量子計算操作的量子計算系統。按照這個定義,其實D-wave的量子退火機並不能算是通用型量子計算機。
目前主流的量子計算的三種理論模型:
(1)量子電路(Quantum Circuit)
(2)絕熱量子計算(Adiabatic Quantum Computation)
(3)單道量子計算( One-Way Quantum Computation)
物理實現包括:超導量子電路,離子阱,量子點以及光子晶體等。目前我們實驗室所使用的是金剛石中的一種缺陷構成的能級結構,也就是所謂的NV-Center構建Qubit。
再來說說IBM, IBM在早前的IBM Quantum Experience中放出了5 qubit的量子計算平台。
IBM Q - Quantum Experience
用戶可以在平台上搭建量子電路來實現一些簡單的演算法。在今年國內一些量子平台(本源量子計算平台,清華NMR和阿里量子計算平台)公布後,IBM又公布了16qubit的量子計算平台。但是需要注意的是,超導量子計算的一個限制在於,qubit之間的拓撲結構會影響演算法的設計,以下面這個為例子,5 qubit蝴蝶型分布的沒有直接相連接的qubit是不能搭建CNOT門的。
至於說這次宣布研製成功的50qubit的prototype,我目前持觀望態度,因為之前谷歌提出量子霸權的時候也是類似的,有一些放衛星的意味。
至於為什麼是50 qubit我在這裡可以再說一說。
上周我去武漢大學聽一個報告,是袁聲軍老師做的關於用超級計算機實現量子通用機模擬的報告,他的團隊利用目前全球最強大的超級計算機(神威-太湖之光)的全部計算資源實現了45 qubit的量子通用機的模擬。
因此50 qubit如果實現,就能夠超越目前人類所能達到的計算能力極限。
至於會對現行的加密演算法,例如RSA加密演算法產生什麼印象,一切都要等實驗結果出來才有定論。
之前調研過Shor演算法的相關知識,在這裡再簡單講講。
才疏學淺,如有疏漏還請各位務必斧正。
是不是很大的成果?
當然是! 可以完善地操控的量子比特數量顯著增加, 都是非常了不起的工程成就.
是不是就能破解密碼了?
很遺憾... 還早. 通常最讓人矚目的量子因數分解演算法 (Shor 演算法, 可以用於破解 RSA 加密) 需要成千上萬個邏輯量子比特, 而 IBM, Google 等一眾公司做的都是物理比特. 經典計算機上兩者往往是沒有差別的, 但量子計算機因為無法避免量子比特退相干出錯, 必須引入糾錯機制, 從而需要幾百上千個物理比特來實現一個容錯的邏輯比特, 同事還要求這些比特出錯率低於容錯閾值. 於是現在的問題是: 1.低於容錯閾值比特; 2.可拓展的大量量子比特 都還沒有達到. 我們距離理想中的通用量子計算機還有相當距離. 解決方案可能需要更好的量子比特和大規模可拓展的控制機制, 以及進一步改進容錯計算的糾錯方案, 這兩者都還是開放的問題.
是不是就沒用了?
不對! 50 個不那麼完美的比特, 其實已經能做很多經典計算機幾乎做不了的事情了. 最常見的是模擬一些量子系統的演化. 對於計算物理和計算化學上很困難的一些問題, 在這樣的原型機上也許能有很優雅的解決方案. 這台原型機上能不能產生什麼有價值的計算結果, 讓我們拭目以待.
如果真能做成功的話,現在所有在經典計算機上做量子化學計算的基本都玩完。50量子比特足夠秒殺現在的計算機了。
IBM自己上個月才掛的文章說經典計算機可以模擬56比特的quantum circuit, 就問這個50比特的原型機有什麼用...
Breaking the 49-Qubit Barrier in the Simulation of Quantum Circuits
以後的程序員是不是還要學一波量子力學了?
快點商用吧。。。不想把大好青春浪費在等計算結果上啊!
里程碑突破,50個已經實現了"量子霸權",美人希。
50量子比特計算機在理論上已經達到量子稱霸(Quantum Supermacy)的標準,也就是說可以基本秒殺世界上目前任何一個經典的超級計算機。
如果能再翻一倍達到100量子比特,那就可以達到目前世界上所有算力總和的100萬倍。
想想還是很可怕的,到達那個時候現有的很多計算體系基本就土崩瓦解了。個人理解,比如說比特幣網路,在這樣的量子計算機面前等同於是所有礦被瞬間炸平;另外,大部分的加密演算法也都是瞬間破解。
原型機而已 只是做出晶元還沒有測試性能 不太看好其cnot保真度能到3個9
今天會議,按我校老師的話來說華而不實。
今天會議,按我校老師的話來說華而不實。50比特的量子計算機的計算能力等於2^50個50比特普通計算機。
顫抖吧少年。
完全看不懂啊,但我很激動啊,扶老衲起來去圖書館...
先等一等吧
原型機要到商用
還有十年的路好走以後程序員不學通量子物理
總感覺人工智慧浪潮只是美帝的一個幌子,騙我們把大量資金投入其中,而量子計算才應該是第四次工業革命的根源
那麼,我想問的是,如果量子計算機可以大批量生產了,會對我們的軟體行業有什麼影響?
應該@ 幾個dalao過來回答
平時比較關注科技新聞,看來一下報道,一台pc大小的量子計算機就趕得上一台超級計算機了,這是非常了不得的,就像之前我國的量子通信。
人工智慧的爆發,是需要基礎的,應用前景非常看好。似乎離通用AI又近了一大步?
推薦閱讀: