美國在超級計算機領域落後了嗎?

近年來超級計算機冠軍地位都屬於中國,尤其是神威太湖之光研製成功後。那麼美國作為目前計算機和綜合國力第一的國家,他們在超算總量或者單個超算機群運算能力上落後了嗎?


美國沒有落後,不過中國追趕的很快。在硬體浮點單元,異構多核,高速互聯,基礎軟體,開源社區建設等等方面美國都還是走在前面的,只是成品系統被太湖之光拔了頭籌。太湖之光的互聯還是用了一部分Mellanox的解決方案。

不過在HPC上追求全國產不科學也沒必要,很多基礎組件MPI之類都是開源的而且已經是事實標準,保證兼容性然後拿過來改改就可以。更重要的是軟體開發維護、社區建設、用戶反饋這些要做好才能進入良性循環的軌道。

單純比較GFLOPS的話太湖之光確實很強,比目前美國的前幾大系統加起來都大。根據目前(2017/06)的top500,太湖之光有93,014.6TFLOPS,美國能源部的前五大機器(Titan,Sequoia,Cori,Mira,Trinity)加起來是65465TFLOPS。太湖之光一打五還有富餘。不過HPC是要看應用的,太湖之光的技術特點導致有些應用效果很好,另一些應用效果會很差。

----------------分割線-----------

看到其它相關問題裡面很多人沒看過具體資料要麼褲衩在滴血要麼就在亂噴,所以作為HPC用戶補充一點太湖之光的資料,雖然人在國外沒機會用它。

關於26010硬體系統的具體資料可以看這個:

http://www.netlib.org/utk/people/JackDongarra/PAPERS/sunway-report-2016.pdf

軟體系統比如openacc編譯器的資料在它自家網站上有。

我個人理解太湖之光的CPU sw26010在設計取向上是針對「暴力浮點」優化的,出現上面這個結果(FLOPS強,某些其他測試不太好)意料之中。比較顯著的一個指標是這個CPU的內存帶寬/浮點比率達到令人難以置信的1/22.4=0.045 Byte/FLOP。作為對比(數據來源Yokota,J Algo Comp Tech, 7,3,2013):

INTEL Xeon E5 2690: 0.211

AMD Opteron 6284 SE: 0.235

NVIDIA Fermi GF110: 0.266

IBM PowerPC A2(BG/Q):0.208

Fujitsu Sparc64(FX10):0.359

相比較而言sw26010的內存帶寬太小,很多操作都會卡在內存上。實際應用上,優化好的FMM或者DGEMM大概需要0.2,使用特殊向量指令還可以更低,3D FFT大概需要0.6~0.9, stencil大概2~3,spmv大概5。在x86上FMM/DGEMM是compute bound,後面幾個都是memory bound,而在sw26010上這些操作幾乎全都是memory bound。所以在Graph500裡面太湖之光落後內存帶寬有很大優勢的Sparc64 K是很正常的結果。這是設計取向問題。

作為一個HPC用戶,sw26010這樣的cpu很難優化,內存帶寬小是一方面。另一方面計算核有

「The Computer Processing Element (CPE) is composed of an 8x8 mesh of 64-bit RISC cores, supporting only user mode, with a 256-bit vector instructions, 16 KB L1 instruction cache and 64 KB Scratch Pad Memory (SPM).」

只有很小的L1指令緩存,要靠手工維護scratch pad memory,這個內存結構有點像Fermi架構之前的nvidia GPU,nbody這種簡單暴力的寫起來比較適合,想做點複雜的就很麻煩。

從太湖之光官網的軟體環境(國家超級計算無錫中心)里也可以看出,目前科學計算軟體里大量的都是比較適合這類CPU結構跑的nbody類型分子模擬程序,比如NAMD,LAMMPS,Amber,GROMACS之類。

另一方面在缺乏Petsc/trilinos這樣的並行計算基礎庫的條件下給太湖之光寫代碼是成本非常高的事情,一般大學裡只有極少數實力強大的組有這個條件(經費、時間、人力)從底層開始寫一套大程序,這也制約了這一套系統的潛在用戶數量。用戶數太少的話軟體基礎設施永遠停留在比較原始的階段。


我們比他們差的很多。

不是指技術上,而是指資源豐富度上。

美帝的超算資源非常豐富,除了大型的國家出資的計算中心,每所高校乃至一些大型的實驗室都有自己的超算資源。

我之前在明大SAFL混過,那邊自己有一台上千核的超算集群,還有美國能源部的超算可以用。

相較之下,我們這邊是在包括天河在內的幾個超算中心租機時,總共可支配的算力大概八九百核,但就這樣,每年計算資源的租金還是占我們經費的大頭。

歸根結底,還是窮,兩邊的機時費大概在一個水平,但我們經費就是沒人家充裕。


天天見到flypool上有幾個礦工算力一騎絕塵,但每天只挖3-4次,一次1-2小時。

超算閑置?超算閑置的話他們怎麼不一直開著?

剛寫完,就發現有個超算礦工開機了。

https://zcash.flypool.org/miners/t1fdEL1x8xjynByB9Mg7EX78cJJGFmw1cGy


看看 @曹煥琦 對CUDA的描述。確定不是在做夢?

SW26010從核通過手動的DMA,將訪主存操作進入Memory Controller排隊,而自身繼續該做什麼做什麼,這件事情無論KNL還是CUDA都沒有做到。仔細思考一下的話這種方式可以相當程度地充分利用訪存匯流排,甚至可以做到幾乎完全打滿訪存(嗯我們這邊HPCG優化就做到了);

===========================================================

吃瓜群眾聽起來覺得好先進啊,SW一定是架構領先所以測試成績領先,對吧?

實際呢,這個設計CUDA在5年前就已經有了。查下CudaDMA是幹什麼的吧,這東西12年就出來了,不要有幻覺。現在別說超算用的加速晶元了。高級的單片機都可以「訪主存操作進入Memory Controller排隊,而自身繼續該做什麼做什麼」

http://on-demand.gputechconf.com/gtc/2012/presentations/S0605-CUDAdma-Emulating-DMA-Engines-on-GPUs.pdf

核心問題是如何保持內存一致性,你沒辦法用魔法變出來幾十倍內存帶寬。(NVIDIA還有內存壓縮,這個的作用非常大)

推測intel、ibm、nvidia在多年前就對類似sw26010的架構做過模擬(IBM還做過類似SW26010的Cell處理器,後來放棄),並且認為這東西根本做不了正常的超算產品。換句話說就是:跑分可以,幹活不行。分數很牛逼,客戶不買帳。

類似的把戲龍芯也玩過。龍芯每次都用SPEC CPU的測試成績說明自己多牛逼,然而你再看下7zip測速結果,會發現龍芯3比Intel Atom、高通驍龍、華為麒麟、珠海全志H3(整機售價65元)還要差勁。這把戲騙國民可以,騙行業客戶沒戲。

=========================================================

我是學通信的,對超算僅限於參與了CUDA平台的LDPC解碼器設計。這是我根據硬體設計的常識做出的判斷,通過查詢公開資料進行驗證。

道理很簡單:設計師不可能把大延遲訪存(幾百個周期)做成硬體等待的操作,這樣無法充分利用硬體資源,而且嚴重影響以後的靈活性。設計師必然會把__syncthread()這類指令分成啟動操作/等待操作完成這兩個步驟來實現,這樣既可以syncthread, threadfence傻瓜式操作,也可以進行cudadma這種高級的自定義操作。


實名反對高票答案 @王清揚 。

美國在超級計算機領域(實際上應該說是高性能計算領域,下稱HPC)沒有落後,我想這是中國行內人士的基本共識(笑),但是若說中國這些年的進步都是特技,那我只想抄起一把(師兄的)HHKB糊在你的臉上(然後被師兄打一頓)。

中國這些年的進步不是為了在HPC方面能夠超越美國,而是為了能讓自己跟上世界的腳步,從硅工藝到體系結構,從工具鏈和軟體生態環境到行業人才。工藝方面我不了解,體系結構設計和工具鏈相關下面會就神威的現狀進行解釋;而行業人才方面,在職的已經有能夠進行世界上最大的幾座集群的維護的大量工作人員,而教育方面,在ISC和SC兩個頂級會議上,學生超算競賽的冠軍曾多次被清華大學的隊伍奪取,而我校中國科大也在去年取得了冠軍(本人有幸出任副隊長、系統管理員),我想也已經充分證實了我國HPC領域人才培養的能力。

首先關於天河二號,由於我本人未曾在天河上面參與工作,所以具體情況尚不得知;但時常能聽說物理/化學/生物/xxx學院的某某某實驗室在天河二上跑了模擬/數據處理/可視化/xxx,也常有本實驗室的師兄在天河上參與了某些應用優化,以我的道聽途說來說用戶還是蠻多的;當然了,這也只是道聽途說,萬一是因為天河跑的太快了大家用不了多少機時呢(笑

然後來說太湖之光。太湖之光這台機器(不負責任的個人看法)應該屬於申威系列晶元的試水,主要的目的是測試申威片上異構多核的設計思路。這裡需要指出一點,太湖之光的訪存匯流排是DDR3,而在太湖之光啟用時,DDR4早已經進入市場接近兩年時間(DDR4於2014年陸續被各大SDRAM廠商開始使用,而太湖之光的啟用時間為2015年年底),由此可以看出太湖之光的實際研發時間是遠早於正式啟用的。而以2013年市場的技術水平(疑似28nm製程,DDR3訪存匯流排)在到今天都保持著相當高的性能和功效比(HPL和HPCG均是,今年的ISC上HPCG的性能取得了長足進步,這是軟體所各位老師和工作人員辛勤努力的結果(雖然我們這邊進度慢了而沒有提交上結果,但是其實我本人進行的演算法設計應當說稍優於軟體所的工作(逃走))),這已經充分證實了片上異構多核設計的可行性和優勢。SW26010這塊晶元不是為了搭建太湖之光,而是為了在計算機晶元設計與體系結構設計界,證明中國有著站在世界前沿的科研實力和工程能力;不是為了太湖之光而26010,而是做好了26010之後才造了太湖之光。太湖之光是SW架構的試水平台,是為了初步構建SW架構上的工具鏈和演算法優化方法(工具鏈已經有了不少進展,但具體進度不方便透露;而演算法優化,看HPL、HPCG、Graph 500的性能就會心裡有個數了吧)。

在去年的Supercomputing上,TOP500頒獎時的獲獎感言里,來自清華大學的一位老師公然以廣告(誤)作感言,聲稱申威晶元有商業化的考量,希望有興趣的廠家能夠聯繫他們。當時我在會場和同行的同學閑聊,沒有注意聽(慚愧),捕捉到他的發言時還以為自己聽錯;但和同學確認過後我才知道這是真的&這不是夢&。而我參加的學生超算競賽結束後,也有外國友人來我隊(我們在當期比賽中奪得了世界冠軍,以不到1分的優勢險勝猶他州大學),詢問我們明年是否會攜SW小型集群前來參賽(不可能的,不存在的)。由這些各位應該已經意識到,SW26010的地位是遠勝於太湖之光本身的;拋開26010,太湖之光僅有的亮點大概就是高密度節點以及其背後的水冷系統了。SW26010這片晶元,毫不客氣地說,是體系結構界劃時代的創新,是在硅工藝無可替代的年代以並行的方式保持摩爾定律的新途徑,甚至可能將會成為未來數十年計算機科學乃至人類文明進步的基礎(好像太誇張了,但是人家NV也是這麼吹自己的P100的吧,我感覺28nm有著和14nm相近甚至更好的功效比吹吹不過分吧,嗯)。

太湖之光的佔用率低不可怕,可怕的是太湖之光建好了,卻沒有人以其為平台,開始SW架構上的工具鏈開發、生態環境構建以及優化思路的開闢。幸運的是,中科院、國內若干所大學都有著大量的教授、研究生甚至本科生(比如在下)正在參與工作,而可能將會推向世界市場的SW晶元也將引入全世界的軟體工作者,為SW體系結構鋪路。如果進展理想,在下下代(下代可能還有困難吧)神威集群出現之時,在高性能領域,SW體系結構將有著不下於x86_64和CUDA的生態環境,能夠方便地支撐大多數常見的計算任務的進行,屆時神威集群的能力將遠勝於現在的天河系列,成為支撐國內科學研究、技術研發的頂梁支柱。

中國從未打算將自身的超級計算機研發與世界隔絕。相反地,我們從美國學習到了許多東西,而我們的工作也為全世界的高性能工作者帶來了新的思路、新的方法。科學無國界,有國界的只是使用科學的人;計算機也是一門科學,它也不例外。美國的企業(Intel、Nvidia為首)、大學在HPC領域仍然有著傲視世界的研發實力,但來自中國的企業、大學、研究者也已經能夠跟上他們的腳步。我們已經能夠進行HPC領域世界前沿的研究,甚至可以先於全世界走出創新的步伐。這才是這二十多年來中國高性能人才努力的方向和結果。

本段數據刪除

(具體的技術細節內容和消息等,補充內容已經咕咕咕了,謝謝理解)

(不懟,我這人不喜歡一來一回地吵架,你們可以評論噴我,但是我不會回復的,謝謝理解)


時隔不知多久的補充:

強吹sunway不可取,上面的內容大家請自行帶上腦子看乾貨。

另外關於 @WarMonkey 對dma engine的說明,我想說三點:一是據我所知,CudaDMA只支持到Kepler代,並且沒有得到NVIDIA的官方採納;二是據我所知,CudaDMA是使用額外warp模擬DMA Engine,因為CUDA架構中並沒有DMA Engine的存在;三是sw的DMA Engine是獨立存在的,並且是從指令層面非同步的介面。

作為「證據」,下圖來自SC11上CudaDMA的論文CudaDMA: Optimizing GPU Memory Bandwidth via Warp Specialization

這圖實際上和WarMonkey先生附的圖中的一部分高度重合,但是請注意,Warp在CUDA中是最小的程序執行單元,CudaDMA實際上是佔用了計算資源來實現一個DMA Engine。按照CudaDMA主頁左上角的形容,它是Emulating DMA Engines on GPUs for Performance and Portability,注意,Emulating。

沒有詳細去確認CudaDMA這個第三方庫的具體實現,但是根據論文內容基本可以推斷出以上信息。如果有了解的更詳細的,請不吝賜教。

至於WarMonkey先生所說的「設計師不可能將這些高延遲操作作為單一指令」,事實上它們往往就是單一指令,只不過這個延遲被處理器的out-of-order執行hide掉了;如果你有足夠多的計算任務,訪存延遲可以完全和計算時間重疊,從而保證high throughput。就以CudaDMA為例,它的非同步DMA是用額外的Warp作為DMA Engine,實際的訪存操作還是由阻塞式的訪存指令進行。這些內容我相信好好學習一下計算機體系結構這門課程就會有所了解;我估計這位前輩也不是計算機專業出身,而是IC相關行業吧,情有可原。畢竟很多時候做SA的人腦子或多或少都有些一根筋,有老的解決方案就不怎麼想新的,很多東西不是怎麼合理怎麼來而是怎麼向下兼容怎麼來,直到眾核架構被迫開始發展才有所改變。

本來不想來說的(跟幾個人私下裡聊天的時候抱怨了好多次貴乎不少人沒搞清楚情況就上手打臉然後還打的不對,想跑路了都),但是想了想真打就打吧我也不太愁打不過(。。。),真打不過了大不了撅個屁股認個錯(。。。),順便還能給一些理智的同學科普一下一些知識,就來補充了這些內容。

最後,最近開了個專欄來科普Sunway的處理器設計和編程模型,忙過這兩天就開始陸續填坑,有興趣的同學可以圍觀一下,也歡迎各位提出疑問、以及前輩們指出錯誤。在下一代Sunway晶元的集群在地球OL實裝之前我只會涉及sw26010;畢竟我也只知道這個,不過如果過幾年還有心情的話我會更新新的晶元的。(當然了,不會涉密的,資料來源都將是無錫中心的公開文檔,不過我會以一個實際使用者的角度進行介紹)


看了某答主的答案,我才明白我國沒有核動力航母是深謀遠慮啊,不像美國為了顯擺用民脂民膏去造核動力航母,結果絕大部分時間都是在海上開來開去,壓根就沒幾天用來打仗,咱有兩常規動力航母夠用就行了,當然最聰明的還是那些連武器都不造的國家,最省錢,不顯擺。

畢竟西方的盤尼西寧都用不完,我們幹嘛要自己造。


美國公布最新深度學習超級計算機:重點應用於核武器安全領域

  美國勞倫斯·利弗莫爾國家實驗室(LLNL)和IBM公司近日公布了一款最新深度學習超級計算機,將配備人工智慧系統。這是目前最接近人腦的計算機產品,以IBM公司一款名叫「真北」(TrueNorth)的「神經突觸」計算機晶元為基礎,複製出相當於1600萬個神經元和40億個突觸的「神經系統」,能耗僅為2.5瓦特,相當於一塊助聽器電池。

1"真北"晶元簡介「真北」是具有認知能力的類腦微處理器晶元。該晶元非常先進,不僅克服了傳統中關鍵的「馮·諾依曼體系結構」瓶頸,還為新硬體的利用開創了新的思維方式。

2014年8月,美國防高級研究計劃局(DARPA)在"神經形態自適應可塑可擴展電子系統"項目下,以"互補金屬氧化物半導體"(CMOS)電路模仿人腦的神經元,以憶阻器模仿突觸,以"神經突觸核心電路"模仿皮層柱,以類腦微處理器晶元模仿大腦功能分區,以多塊類腦微處理器構成的類腦計算系統模仿整個大腦,研製出「真北」類腦微處理器晶元,以及包含16塊「真北」晶元的類腦計算系統。

 ▲IBM集成16塊「真北」晶元的電路板其實時耗電量為70毫瓦,每秒突觸運算達46千兆次,耗能比利用同一神經元網路進行運算的傳統計算機低幾個數量級。該項目在真實場景下演示了類腦微處理器的模式識別、模糊計算能力,驗證了類腦計算系統的可擴展性。

 「真北」被標為70年來計算機設計的一個基本背離——使用神經元和突觸來處理信息,某種程度上類似於大腦(人類右半球的大腦皮層)2

新型超級計算機標誌著人類進入了認知運算的新時代IBM仿人腦計算機在設計與製造之前,首先使用勞倫斯·利弗莫爾國家實驗室的「紅杉」(Sequoia)超級計算機對IBM的"真北"晶元進行了模擬。

按照雙方的合作合同,勞倫斯·利弗莫爾國家實驗室將得到一台IBM以16塊"真北"晶元為基礎的超級計算機系統,能夠複製出相當於1600萬個神經元和40億個突觸的「神經系統」。

LLNL即將接收的IBM新型超級計算機該實驗室還將獲得一個終端對終端的「生態系統」,用來創造能夠模擬人腦的感知、行動和認知能力的節能機器,並為其編寫程序。這套「生態系統」包含一台模擬器、一套編程語言、一個集成編程環境、一個演算法庫及應用、固件、幫助神經元網路進行深度學習的工具、一套教學課程、以及雲計算支持。勞倫斯·利弗莫爾實驗室的計算機科學家將與IBM研發中心、能源部和部分大學開展合作,促進神經突觸架構、系統設計、演算法、以及軟體生態系統的發展。該項研究將進一步推動仿人腦運算技術的發展,讓未來的計算機系統具有前所未有的運算能力和吞吐量,同時將投資、運行和編程成本降至最低。

勞倫斯·利弗莫爾國家實驗室數據科學的副主任吉姆·布雷斯表示:「仿神經運算為我們創造了令人激動的新機會,這正是我們國家安全任務的核心——高性能運算和模擬技術的未來發展方向。仿神經計算機的潛在能力,以及它可以實現的機器智能,將改變我們研究科學的方式。」該技術與過去70年間的主流計算機設計之間存在根本性的不同,並將對下一代超級計算機的研發做出有力的補充。新一代超級計算機的運行速度將比目前最先進的千萬億次級超算系統快50倍。就像人腦一樣,「神經突觸」系統所需的電量和體積都將大大減少。這些模擬人腦的處理器耗能很少,正反映出了當今工業的發展趨勢,也是在將來研發超級計算機的過程中降低所有組件耗能的一種富有創造力的方式。

▲模仿人類大腦是科學家尋求突破的方向IBM仿人腦計算機研發中心的首席科學家達曼德拉·莫德哈表示,這一先進運算平台的出現具有里程碑的意義,代表著人類進入了認知運算的新時代。3

深度學習超級計算機對美國國家核安全意義重大這款IBM仿神經系統採用類似大腦神經元網路的設計,能夠完成複雜的認知行為任務,如識別圖案、整合多種感官處理等,且效率遠高於傳統晶元。新系統將用來提高計算機的運算能力,這對美國國家核安全局(NNSA)在網路安全、核武器儲備和防擴散管理等方面的任務具有十分重要的意義。NNSA高級模擬與運算項目(ASC)將對機器學習應用、深度學習演算法和體系結構進行評估,並開展通用計算可行性的研究。該項目是國家核安全局儲備管理項目的奠基石,力圖在不進行地下測試的情況下,保證美國核威懾力量的安全和穩定。

NNSA ASC可形成對核武器的數值模擬能力《全面禁止核試驗條約》簽署後,為保持其庫存核武器的安全性、可靠性和有效性,美國實施了"核武器庫存管理"計劃,其中的ASC計劃旨在加強核爆炸過程數值模擬能力,形成對核武器進行全系統、全物理、三維的數值模擬能力。核爆炸過程數值模擬,特別是高精度的三維數值模擬對大型計算機的計算能力以及數據可視化能力提出了更高要求,同時也推動了超級計算機的發展。

來源:勞倫斯·利弗莫爾國家實驗室網站等


美國真的沒落後。超算前10里有6個(中國2個),前500里有168個(中國160個)。神威我個人覺得最大的意義還是造出來了一個主要計算部件國產的高性能機器。有了這個心裡就不慌了。拿這個吹多先進可能還不至於。

@王清揚 話說回來美國的Sequoia和日本的K也都不是x86……它們的使用情況如何?還有大家都愛用的GPU好像想在實際應用上跑滿性能也不是容易的事情吧…我覺得體系結構難用是事實,但是不完全是神威專有的黑點吧。

最近沒太關注這個話題了,不知道現在神威上的基礎設施(blas, mpi, openmp, 工具鏈)怎麼樣。如果基礎設施能跟上的話,我覺得還是很牛逼的。


更新:

看了評論,感覺很多朋友沒理解我的意思。

我所謂的架構體系並非指馮·諾依曼結構這樣很久不變的理論,而是非常具體的東西。這裡說

兩個例子:

例子1:

曾經在小機上搞過內存資料庫,後來為了將應用擴展到更多的設備,寫了一些分散式計算的代碼,但效果不太理想,寫的東西無法商用。

但後來,人家Google的分散式架構論文(三駕馬車)一出,按人家的思路,突破就很迅速,雖然Bug不少,但可以商用了。

再後來,開源的很多東西越來越好,如果現在重新做,肯定要用開源的代碼,自己寫的少,維護難度低,Bug也少。

當初我們天天努力優化我們的應用,甚至研究演算法,但沒有人有時間、能力,像Google一樣從更基礎的層面去思考解決問題的方法,因此人家的三駕馬車一出,我們搞的那些東西沒幾年就淘汰了。

例子2:

大學那會,聽說我們系有個導師,曾經組織了一幫博士、研究生,搞了一個視頻實時解碼的課題。

據說當時論文正在評審的時候,Intel的MMX處理器橫空出世,最後這個項目就泡湯了。

我們中國人,非常擅長把某種體系或理論發揮到極致,但人家一個更底層的突破,就可以把你的那些努力全部蓋過。

超算領域其實也是一樣,我們現在的最快,其實是按人家原來的套路,我們玩的更好而已。

所以,美國在超算領域並未落後,人家依舊是老大,我們只是從曾經的望塵莫及變成緊緊跟隨而已。在非核心點的細分領域,我們又玩出了新的花樣,值得肯定,但還不能驕傲。

--------------------------------------------------------------------------------------------------------------------------

剛上大學那會,我是個DIY,對啥CPU,超頻之類的非常有研究。大一的時候學院某老師要換電腦,還是我幫忙拉的配置單陪著去電腦城攢的機。

當時覺得自己挺牛,覺得老師們不看電腦愛好者落伍了,連賽揚266可以超頻到400都不知道。

後來讀了專業課才知道計算機其實很複雜,超頻啥的就是小兒科,人家老師搞演算法的懶得去了解這些好不好。

你現在的超算架構體系,基礎硬體,基礎軟體都是基於人家美帝的,人家沒造最快的,不代表人家造不出來。


什麼時候我們有能力對美國下晶元禁售令了,美國超算就算落後了。我們能上網這才幾年吶,切不可盲目自信。

————————————

「美國:我夠用就行。」

我特么頭一次聽說超級計算機性能還有「夠用」這種說法……

如今造超級計算機都成勞民傷財、面子工程了。那中科院正在攻堅研製的量子計算機應該叫什麼,傷天害理?其心可誅?

照這麼說美國禁售晶元倒還真成了為了我們好……

真是讓人又好氣又好笑。


這哪裡是落後!落後…… 這明明是夠用而已!

接下來便是一些難懂的話,什麼納稅人,面子工程,用戶使用率等等,引得眾人鬨笑起來,評論里充滿了快活的空氣


這幫不爭氣的…推遲到2022年了…

-------------------------------------------

Argonne National Lab在造新的超算Aurora…

算力大概是180 PetaFLOPS。太湖神威的1.8倍。

參考鏈接:

Argonne National Lab: http://aurora.alcf.anl.gov

Intel: https://www.intel.com/content/www/us/en/high-performance-computing/path-to-aurora.html

------------------------------------------

知乎公民的膨脹程度我是沒有預料到的。

如果中國的超算科研人員都似汝等膨脹,那中國超算也是藥丸的。

幸虧他們不是。

------------------------------------------

如果把一個已經造好開始做Early Scientific Application Development 的Aurora當作一個你們看來的笑話而不是應該作為的威脅來看,汝等還真是精英呢。


很多大科學裝置是這樣的,沒錢說個X

而錢,美國人的態度是本質上是軍事用途,業餘用於民用,畢竟這東西太貴,沒人發神經自己私人搞一套(投行以外),比如能源部在橡樹嶺的克雷……

中國也是這樣,只不過我們軍隊都生怕別人說我們軍力爆發,所以尖兵衛星突出民用,超算非得說的跟一般老百姓日常生活很大關係似的……

所以就這樣繼續吧,什麼時候國防預算大幅提升了,美國人就會改進吧……

畢竟至強處理器還是美國人的……


先總結一下@王清揚 同學的思路:

AIPC-廣告原版_廣告_廣告_bilibili_嗶哩嗶哩bilibili.com視頻

(視頻0分32秒到0分44秒)

===============================

最後回答問題:

短期來看是的,落後於中國。短期的標準很簡單,就那個算力榜單,誰靠前誰贏。

長遠來看不是,跑馬拉松的兩個人,其中一個喝水的時候落後了另一個人半個身位,能算落後嗎?


顯然是沒有的。

雖然目前中國的超算閑置率不是一般的高,而美國基本是剛好夠用的狀態,但是不代表中國的超算就沒有存在的意義。

前面答主提到了,按峰值看太湖之光一打五,但實際上太湖之光現在使用率真的很低...因為首次用了國產晶元,作為試驗品的意義更大些。

但是為純國產超算鋪路難道就不好嗎?成天鬧喚硬體進口,現在國產了,就又要說浪費納稅人的錢。

他們不知道美國在半導體工業上花的錢和精力比中國要多多少倍,現在不花錢惡補,我們的後代可能就要埋怨我們無能了。

既然要數據嘛,天河二的使用率基本在80%上下,天河一也差不多是滿負荷運行。

太湖之光只有50%+

相關新聞http://wemedia.ifeng.com/19564307/wemedia.shtml

美國的超算是誰用誰建,誰建誰用,中國的超算基本都是各個研究所負責,就目前來看利用的沒有美國充分。


現在的超算,說得簡單化一點,就是橫向擴展,俗稱scale out,更多CPU,更多機器,更大的機房。中國有國家意志驅動,有國家財力保障,所以發展得非常好。奧巴馬也簽過總統令搞這樣的超算,美國也很可能正在搞,但是總體美國的國家財政沒有中國這麼好集中。

還有一種擴展,縱向擴展(升級),俗稱scale up。這是中國還落後的地方,極端一點的如量子計算機,一旦搞成就不是傳統超算可以比的,在這些尖端領域,美國說得出名字的就有兩家公司,也取得了階段性成果,DARPA旗下還有很多contactor,在這些領域的投入要比中國大得多。


雖然不是很懂超算,看到高票答案在類比運輸能力,實際上一個國家的運輸能力一定要先行,超出正常的使用量是正常的,運輸能力的超前能有效促進國家經濟發展,總不能等到需求足夠再修路吧,那就來不及了,不知道是不是能類比超算。


我覺得你們對於@王清揚的想法都沒有說到點子上,我想他的初衷是好的,但是我認為他批判的點是錯誤的,因為關於超算最大的問題有可能是管理的問題(王清揚自己也說大家主要用X86,很少用貴的MIC),並不是說因為夠用所以沒有完全佔滿資源。

我覺得美國在超級計算機領域並沒有落後,只能說不少地方中國技術追上來了。


不考慮其他國家,僅論中美,現在的超算的本質是富士康,100000個高中生可以吊打10000個碩士,大學生,或者高中生。

但是美帝缺資源去做一個富士康,畢竟錢都去修牆了(大霧


是,落後了

落後就是落後,比不過中國就是比不過,人家也很絕望啊,直接給因特爾來了一手禁賣

與其說是美國落後了,不如說是中國太超前了,在沒有剛需的情況下,靠情懷做到這個樣子,真的了不起

和中國靠情懷拚命研究不同,美國是有剛需的,他們的互聯網比我們發達太多了,需要超算的領域也太多了,要是不能保證超算的速度,很多領域就要受到限制而滯後,所以他們是有足夠的理由發展超算的。中國就不一樣了,就是想做個世界第一出來,沒別的意思,做出來了用到的地方也不多,真的是靠情懷。美國一直是需求推動發展,中國是發展順便需求。。。

恕我直言,那些說勞民傷財的,都是xx

這種東西,遲早都要用的,中國是超人口大國,數據量多的一批,沒有這個,未來就談不上飛速發展。沒有需求所帶來的,是研發的困難,而研發的必要性,向來是沒有必要質疑的

--------------------------------------------------

昨天被建議修改了,所以一直沒有回復大家,不好意思,在這裡給諸位評價我的朋友道個歉

其實我想說的,不是什麼美國不行了,美國比不上中國什麼的云云,這點自知之明,全中國人都是有的,我想說的是,在中國奮起直追的這麼點年頭裡,美國確實落後了,而且是一直在落後,並且在超算這個領域裡,雖然有很多比不過的理由,但確確實實的,比不過中國,而在比不過的同時,這些「理由」,都只能是借口

技術和發展,一直是相輔相成的,發展推動技術,技術支持發展。而在過去很長一段時間裡,西方人慣有的方式,是科技先行發展(即需求)跟上而後技術跟上,而中國的方式向來是實踐,通過自己瞎jb搞然後在技術上遙遙領先,之後出現對這些技術的合理應用也就是需求,少了科技這一環,當然近幾十年已經加進來了。

美國的超算有很多束縛,他必須滿足需求,而中國就沒有這種負擔,我們目前沒有足夠的需求,而將來若是有什麼需求,也是讓需求合適於超算,所以我個人認為,不存在所謂的中看不中用一說


推薦閱讀:

怎樣成為一名硬體工程師?
如何理解計算機科學相關里出現的「謂詞」?
我知道c語言,那a語言和b語言呢?
日本大學院畢業後去美國工作是否現實?
軟體工程師的價值來源於產品是否成功還是技術是否過硬?

TAG:美國 | 計算機 | 計算機科學 | 超級計算機 | 中國 |