IBM駁斥谷歌,量子霸權 VS 量子優勢,量子計算離我們還有多遠?

2019-10-23     返樸

Google 提「量子霸權」,IBM 提「量子優勢」,這兩種提法說的是一個意思嗎?量子優勢與量子霸權相比,到底哪個更激進?它們將如何影響科技界、工業界和我們的未來?今天的文章就是關於量子霸權與量子優勢的一篇專業又有趣的科普。

撰文 | 無邪(量子計算領域研究人員)

兩個大佬級的科技公司正在全力推進量子計算機的研發,Google提「量子霸權(quantum supremacy)」,IBM提「量子優勢(quantum advantage)」,這兩種提法是一個意思嗎?量子霸權給人感覺就很霸道啊,是不是量子霸權就比量子優勢更為激進呢?在這兩個概念提出之初,筆者也感覺量子優勢是更為溫和的,但隨著理解的逐步加深,現在有了不一樣的看法。借著Google最近聲稱的量子霸權的橫空出世(這一提法尚有爭議。據最新消息,IBM在其10月21日發表的預印本論文中對Google經典計算機模擬部分做了新的評估。參見後記),筆者在此談談個人見解,歡迎方家指教。

1 Google與「量子霸權」

9月底,Google 量子 AI 團隊通過 NASA STI program 發布了一份報告,題為「採用一個可編程超導處理器實現量子霸權」。文中報道了一個包含53個量子比特的量子晶片,在態空間隨機採樣算法上,對一個實例執行100萬次需要約200秒,而對於同樣的任務,要達到同樣的保真度,採用目前最強的超級計算機大約需要一萬年。



Google量子計算晶片「Sycamore」 | 圖片來源:NTRS/NASA

這塊晶片的代號叫「Sycamore」,用一種美國的懸鈴木(有點像法國梧桐)來命名,晶片上還印了一片懸鈴木葉似的 logo。這也是Google量子計算晶片的命名特色,比如他們正在測試中的另一塊包含72個量子比特的晶片則命名為「Bristlecone」,以狐尾松來命名,晶片上則印著一個松果。無論是懸鈴木還是狐尾松,都用上了最新的封裝技術——倒裝焊,這一技術使得對量子比特進行二維矩陣式排列成為可能,而這種近鄰耦合的矩陣排列形式是進行表面編碼量子糾錯所必要的。由此可以推斷Google有可能在不久的將來測試真正意義上的量子糾錯,不過「量子霸權」更符合現階段的發展需要。

懸鈴木看起來只有53個量子比特,但事實上它包含了142個!只是其中88個量子比特僅作為耦合器工作,另外54個(哦!抱歉,壞了一個)作為全功能的量子比特使用。儘管壞掉一個,53個量子比特也足以演示「量子霸權」了,它的態空間(指53個量子比特組成的量子系統所有可能存在的量子態的集合)維度高達2^53,有興趣的同學可以算一算這是多大的一個數。如果能夠全部用上,現有的超級計算機別說計算了,就是存儲這個態(存儲消耗的是空間,由於53個量子比特的糾纏態過於複雜,需要消耗極大的內存空間)就夠喝上好幾壺了。

懸鈴木的拓撲結構。叉叉是量子比特,藍色菱形塊也是,只不過作為可調的耦合器來用 | 圖片來源:NTRS/NASA

Google團隊對晶片做了全面的基準測試,結果表明總體的單比特量子門和雙比特量子門操作保真度都能夠達到99%以上,已經基本達到了能夠進行表面編碼糾錯的閾值。在更多的細節中,團隊還指出,這些量子門操作的錯誤率中,主要成分是離散的、局域的泡利錯誤(一個量子比特發生了比特翻轉或相位翻轉),這就意味著這些錯誤都是可以用量子糾錯算法來消除的。對於未來的量子糾錯而言,這無疑是一個好消息。

2 量子糾錯有多重要?

說到量子糾錯,也許很多人並不能立刻感受到其重要意義。在現有技術下,所有的量子比特或多或少都是存在噪聲干擾的,我們將這種有噪聲的量子計算單元稱之為「物理比特」。但是,要實現一些有用的量子算法,比如著名的 Shor 算法(就是那個那個……能破解密碼的那個),對錯誤率的要求高得多,直接用物理比特是不可能的。

那怎麼辦呢?唯一的辦法就是利用量子糾錯,用一大堆有噪聲的物理比特,通過適當的編碼形式,來表示一個比特的信息。我們把這種量子比特稱之為「邏輯量子比特」。將信息編碼到更大的空間中去以確保信息不易丟失是通信中最常用的手段,比方說兩個人打電話,電話線上有噪音導致聽到的聲音斷斷續續,要想確保對方聽到,我們常常會說:「對對對對對,對對對對對,就是它,就是它,對的,是的……」這樣即便對方漏聽了幾個對,還是會聽到不少的對,然後就能確認是對了。

比較麻煩的是,量子世界與經典世界還有一個重大的區別:觀測會導致量子態發生非么正演化,迫使量子態投影到某一個與觀測相關的運算元的本徵態上去。說人話就是,如果我們直接去看一個量子比特,這個量子比特的狀態就會發生改變,最終展現給我們的不會是它原來的樣子。更可恨的是,這種改變是不可逆的,看過之後就再也回不去了——某些信息徹底丟失了。

所以我們顯然不能這樣進行量子糾錯。好在我們可以將一個量子比特與很多其他量子比特糾纏起來,然後只去看那些不包含信息的比特。在這種情況下,儘管測量得不到信息,但測量結果可以指示奇偶性的變化,從而給出「錯誤症候」,就像中醫的「望聞問切」,一旦發現印堂發黑,就知道病入心肺,趕緊開藥治病救人。正因為測量不獲取信息,所以也就不破壞信息,但我們卻得到了錯誤症候,知道是哪個比特出錯了,也就知道怎麼糾錯了。這就是量子糾錯的基本思路。

Shor提出的量子糾錯編碼,需要9個量子比特來編碼一個邏輯量子比特。看不懂不要緊。| 圖片來源:Quantum computation and quantum information,Michael A. Nielsen&Isaac L. Chuang, Cambridge University Press, §10.2

量子糾錯的編碼方式有很多種,但不管什麼樣的方案,對單個物理比特的錯誤率都有一個基本要求。早年的編碼方案,如CSS碼、Shor編碼等,對物理比特錯誤率的要求仍非常之高(大約為10^-6,即一百萬次中錯一次),目前最好的物理量子比特距離這個要求還有兩個數量級之差。

後來 Alexei Kitaev 提出了基於拓撲方法的表面編碼[1],這一編碼形式採用二維矩陣形式排列量子比特,比特之間只需要近鄰耦合,它對錯誤率的閾值要求大約是0.75%,一千次里錯7次就滿足要求。這極大地降低了技術要求,現有的實驗方案,比如超導量子電路已經達到了這一閾值要求,量子糾錯在技術上成為了可能。不過,表面編碼是有代價的——它需要極高的開銷。以Google的量子比特為例,目前的技術水平,如果想達到求解Shor算法的要求,需要約3600個物理比特來編碼一個邏輯比特。想想現在才剛剛超過50個,這個要求也是相當高的。當然,還有很多其他很有潛力的編碼形式,比如耶魯大學主推的玻色編碼方案,鑒於其偏離主題,在這裡就不展開來講了。

注釋 [1]:最早Kitaev的方法是環面碼,後來發現環面幾何結構不是必須的,於是Bravyi和Kitaev進一步發展為表面碼,Freedman和Meyer也給出了一種平面碼並證明這兩種碼是同構的。

表面編碼,量子比特像棋盤一樣矩陣排列。黑色圓點是存儲了信息的量子比特,藍色圓點和紅色圓點則是附屬的用於糾錯的量子比特,分別用於探測比特翻轉錯誤和相位翻轉錯誤。這種編碼形式只需要近鄰耦合(圖中的綠色菱形塊)| 圖片來源:Building logical qubits in a superconducting quantum computing system, npj Quantum Information, DOI: 10.1038/s41534-016-0004-0

3 量子霸權:展示量子計算的潛力

回到量子霸權。Google採用了一種隨機量子電路來展示量子計算的潛力。所謂隨機量子電路,就是在一個量子門的集合中隨機挑選一系列的門,作用在隨機挑選的量子比特上(對於兩比特門,則隨機與它四個近鄰的比特之間進行),最終的輸出是2^53維的態空間上的一個隨機取樣(這個說法很繞,說白了就是我不管輸出結果是什麼,總之是那麼多種可能狀態的其中一種)。

Google團隊最多做到53個量子比特,1113個單比特門,430個雙比特門,整個算法的周期數[2]最大到m=20。作為對比,Google在德國於利希研究中心超算、目前世界上排名第一的超算Summit,以及Google雲計算伺服器上進行了模擬。當m=20時,因為內存不足,計算機已經無法模擬。當m=14時,進行三百萬次採樣,保真度達到1%需要的運行時間測算下來為1年。當m=20,達到0.1%保真度所需要的運行時間估計要達到1萬年!更令人吃驚的數據是,做這個運算需要50萬億核時,需消耗1千兆度的電力(我想這還沒計入給計算機散熱的空調用電)!把整個Google賣掉才有望完成一次這樣的計算。

注釋 [2]:為了精確地執行量子算法,我們將量子門操作限定在一個個固定時長的時間段內,每個時間段就稱之為一個周期cycle。



Summit超級計算機。峰值計算能力高達200 petaflops,比太湖之光的93高出兩倍以上 | 圖片來源:Micah Singleton/The Verge

值得注意的是,量子計算機的運算能力是雙指數加速的,這就是所謂的內文定律(Hartmut Neven是Google量子AI的頭,這個定律是以他的名字命名的)。量子比特數與算法深度(指能夠有效執行的門操作層數,算法深度與錯誤率成反比)將隨時間指數增長,而量子計算能力又隨之指數增長(第一個指數類似於摩爾定律,是技術發展的速度,而第二個指數是相對於經典計算而言的,量子系統提供的態空間維度隨比特數呈指數增長,因而其組成的糾纏系統複雜度也將呈指數增長,帶來的計算潛能也隨之指數增長)。這將是一個無比恐怖的增速!以這種增速發展的話,經典計算機顯然是望塵莫及的。

另一個需要注意的地方是:Google用來演示量子霸權的算法是毫無意義的,它不解決,也壓根不打算解決任何問題。它的目的是為了展示量子計算的潛力。我們需要保持清醒的是,量子霸權演示中用到的還是有噪聲的物理比特,距離用於解決真正意義上的計算問題還有很長的路要走。

內文定律的提出者Hartmut Neven,目前是Google量子AI實驗室的負責人 | 圖片來源:www.wsdm-conference.org

4 量子優勢:催生商業價值

幾乎是同時,IBM也向外界發出聲音:他們近期會推出53個量子比特的量子云計算服務。時間上和數量上都如此接近,令人不禁遐想。對於量子霸權,IBM聲稱他們一直致力於實現「量子優勢」:針對真實的應用場景,展現出量子計算超越經典計算的能力。注意這裡的「真實應用場景」幾個字,言下之意就是,量子優勢不僅要體現出計算能力的碾壓,還得是有用的。換句話說,量子優勢的實現,將能夠催生出商業價值來。對於一個追求利益而非理想情懷的公司而言,這顯然是他們做這件事的原始驅動力。

今年3月份,IBM在《自然》雜誌上發表了一篇關於量子機器學習的論文,提出兩種用於機器學習的量子算法,利用多量子比特系統超大的態空間作為機器學習的特徵空間,實現量子的變分分類器,以及估算核函數。這兩種方法有望在實驗上演示並實現「量子優勢」。與Google的內文定律類似的,IBM在其博客上發文提出量子時代的摩爾定律:量子體積將以每年翻一倍的速度增長。以這一增長速度,IBM預計將在2020年代實現量子優勢。在這裡,IBM定義了一個「量子體積」的指標,這是一個與活躍量子比特數及錯誤率相關的參數——量子比特數越多,同時錯誤率越低,則量子體積越大。這與內文定律中的雙指數是類似的概念——量子體積隨時間指數增長,而量子計算能力隨量子體積指數增長。

如果IBM實現量子優勢,其部署的多台量子計算雲平台將很快可以產生商業價值。或許這正是IBM當前布局的良苦用心吧?

量子計算能力的「Moore定律」。| 圖片來源:IBM Research Blog

可見,量子優勢與量子霸權相比,不是簡單的換個概念。量子霸權是一個「里程碑」式的進展,它無疑給科技界、工業界注入了極大的信心,不過它仍是漫漫征程中的一小步,它並不能帶來真正的商業價值,而正是這一點,是量子計算能否順利獲得持續的、滾雪球式的資本青睞的關鍵。

量子優勢就是這個關鍵節點,沒有人能預測它在什麼時候到來,因為要尋找一個有實際價值的量子算法並演示出來,實在不是一件容易的事。不過我們完全應該保持樂觀。比爾·蓋茨說過:大多數人會誇大近一兩年的變化,而低估未來十年的變化。回望十年前,Transmon量子比特(也就是現在大家普遍採用的比特單元)才剛剛提出來,Google量子計算的扛把子John Martinis還在玩相位量子比特。

最後,量子霸權一出,勢必會影響國內各量子計算研究組和公司的研究策略,也會影響國家量子技術發展的布局。這步棋,硬著頭皮也要跟。作為局內人自然是倍感壓力,不過,給自己,也給同行一句建議:保持清醒,尊重科研規律。

後 記

本來已經定稿了,結果又有了「最新進展」:10月21日,IBM在arXiv發表的一篇預印本論文稱,Google在用經典計算機模擬的時候優化不夠,導致過高的估計了經典計算的開銷。按照他們最新的估算,對於同樣的任務,一個優化後的模擬計算僅需要2.5天!從這個角度來講,Google的「量子霸權」就不是真正的霸權了,因為根據其提出者John Preskill的原意,量子霸權必須是量子計算機能做而經典計算機不能做的,2.5天顯然不長,畢竟去拉斯維加斯度個周末就算完了。

IBM的一個主要論點是:Google在估計經典計算的開銷時,只考慮了超算的並行性和超大的內存,這導致了超過40個量子比特之後薛丁格型模擬無法存儲完整的量子態,只能回退到薛丁格-費曼型模擬,以時間換空間。事實上,經典計算機還有很多其他資源可用,比如硬碟!採用內存和硬碟的混合存儲方案,就可以直接處理薛丁格型模擬,加上很多其他的優化方法,並在CPU和GPU混合節點上進行計算,53個量子比特,同樣的隨機量子電路模擬僅需2.5天,即便是54個量子比特,也只要6天。

這篇預印本論文尚未經過同行評議,相信在後續幾天裡會得到不少專家的評論。筆者大致瀏覽了一下論文,表示基本看不懂,能得到的就是上述這些信息。此外,這是一篇純算法分析的論文,尚未真正在超算上跑(這麼短的時間,應該代碼也沒寫出來),還不算「實錘」砸碎Google的量子霸權夢。從態度上來講,這種論文和論點是正向的、嚴謹的、有必要的,不過一放到Google和IBM互爭量子計算頭花的競賽背景中,居然就有了種戲劇性的感覺。此事且待後續各路大神的評論吧,筆者這裡先mark一下。



Google懸鈴木處理器任務模擬所需要的時間估計,優化後僅需2.5天 | https://www.ibm.com/blogs/research/2019/10/on-quantum-supremacy

參考資料

https://ntrs.nasa.gov/search.jsp?R=20190030475

https://www.theverge.com/circuitbreaker/2018/6/12/17453918/ibm-summit-worlds-fastest-supercomputer-america-department-of-energy

http://www.wsdm-conference.org/2018

https://www.ibm.com/blogs/research/2019/03/power-quantum-device/

編者的話

現在加密通訊用的密碼通常有2000個比特長。那麼要用多大的量子計算機才能夠破解這個密碼呢?本文介紹了量子體積這個概念,用來描寫量子計算機的能力。如果我們用Shor的因子分解算法來破解一個N比特長的密碼,我們需要一個量子體積大約為 1000 x 3000 N^3 的量子計算機*(這裡我們假設需要用1000個物理比特來實現一個邏輯量子比特)。所以為了破解長度為2000比特的密碼,我們需要一個量子體積為 10^16 量級的量子計算機。按照本文中提到的量子計算能力的「Moore定律」,到2055年我們也許會做出這種量子計算機。

在經典加密的經典通訊中,2000個比特並不是密碼長度的極限。把密碼長度加到100萬比特長應該是可以做到的。要破解這樣超長的密碼,量子計算機的量子體積需要達到 10^24 量級。按照本文中提到的量子計算能力的「Moore定律」,到2085年我們也許會做出這種量子計算機。這個量子計算機大約有五十億個物理比特,做600萬億次計算,就能破解100萬比特長的經典密碼。

*參考文獻:PHYSICAL REVIEW A 86, 032324 (2012); 「Surface codes: Towards practical large-scale quantum computation」

特 別 提 示

1. 進入『返樸』微信公眾號底部菜單「精品專欄「,可查閱不同主題系列科普文章。

2. 『返樸』提供按月檢索文章功能。關注公眾號,回復四位數組成的年份+月份,如「1903」,可獲取2019年3月的文章索引,以此類推。

《返樸》,科學家領航的好科普。國際著名物理學家文小剛與生物學家顏寧共同出任總編輯,與數十位不同領域一流學者組成的編委會一起,與你共同求索。關注《返樸》(微信號:fanpu2019)參與更多討論。二次轉載或合作請聯繫[email protected]

文章來源: https://twgreatdaily.com/zh-my/at2y9m0BMH2_cNUgtxtD.html