如何評價阿里「麒麟」 全浸沒液冷數據中心在技術領域應用?

把伺服器泡在液體里散熱?阿里雲推出黑科技:浸沒式液冷數據中心 | 潮科技

PUE逼近1.0 全浸沒液冷伺服器集群現身阿里巴巴


這個問題不用邀請我,不是什麼新技術,十多年前就有很多IDC這麼做了,一個老東西了,上網搜idc 液冷,一大堆,有啥好評論的呢?


別說idc了. 花點兒時間折騰一下, 你自己的個人電腦也能搞定啊... 魚缸里放主板, 然後倒油進去... 百度搜索油冷...


其實沒什麼好黑的。

阿里一直是在一步一步走的。

好的方面:

關於阿里硬體方面引入新技術(特指大規模部署的情況下):

阿里引入一種伺服器的時間周期很長,大概一種新硬體出現到線上大規模部署的中間間隔時間一般在兩年以上。中間並不僅僅是觀望,而是實打實的進行測試。

其實摩爾定律已經不太靈了,intel也都一直在被人說擠牙膏。

關於阿里自行研製(組裝)的硬體:

阿里自己根據自己在硬體方面的經驗,也提供了一套伺服器組裝標準,可以自行組裝自己認為合適的硬體。

關於浸沒液冷:

散熱和用電是IDC的最頭疼的問題。谷歌當年選擇在俄羅斯一水電站周圍建立數據中心的原因便是發電和降溫。阿里在千島湖建立數據中心的原因之一也是散熱。

浸沒液冷,算是將近十年的老東西了,但是實際上用起來的地方還是不多,大多數機房還停留在普通機架伺服器+空調的時代,大部分IDC沒有能力也沒有必要做這個事情,只有幾個壟斷性的巨頭必須在這條路上更進一步。

舉個例子,

許多大中型的互聯網公司都會有多個數據中心(機房),一般都是租用,機房/機櫃到期要麼續租要麼退掉。這種體量的公司做液冷是費力不討好,不好維護,浸沒液冷存在的問題想一想就知道了。對於這種公司來說,不如平時做好運維。

只有BAT這種體量的公司,在各地會自建機房。也只有BAT這種體量的公司,才有採用浸沒液冷的動機。


謝邀,想到哪說到哪吧

首先,這個PUE確實diao

要知道北京、上海等地都規定數據中心的PUE不得高於1.5,而我國數據中心的PUE平均值大約在2.5左右,貌似阿里把PUE做到了1.03,這個數字對業內還是很震撼的

這幾年,大型數據中心都在往低溫的地理位置建造

主要原因就是伺服器的散熱成本已經很大程度上影響到整體成本

除了環境溫度低,地價、電價便宜也是主要因素,Facebook把數據中心建在了離北極圈不到100公里的位置,就是出於三方面綜合考慮

摩爾定律差不多還能延續個10年,計算的性能基本壓榨得差不多了,最佳的辦法就是找另外一條出路,比如量子計算。

同樣的道理,數據中心越建越大,邊際成本也越來越高

其實在DIY領域,這種浸沒式的液冷10多年前就有應用了,但做到伺服器集群或者說是數據中心還是頭一次

阿里向來是業務推動技術創新的

所以我想這個解決方案應該是基於阿里對數據中心的強烈需求

谷歌有TPU,阿里有麒麟,一個正向思維,一個逆向思維,殊途同歸

為這些改變世界的科學家點贊


阿里又到晉陞季


從業人員,浸沒液冷已經搞了好多年了,目前的話成型的只有兩種吧,關鍵在於不好維護,此外阿里的這種液體應該很貴,有興趣的可以去看下3M的專利技術,算不上黑科技


目前國內政府對PUE要求比較高

為了降低PUE阿里還是蠻拼的

但是這個全浸沒液冷數據中心也不是什麼新鮮的事情

沒有大規模應用

想想都知道運維維護的技術和成本的問題

短期內

感覺宣傳價值是高於實際應用的


養不了魚就算不上創新


存儲設備是不是只能用SSD?機械硬碟能放進液體里嗎?


不請自來,運維的路還有很長的路要走


說明阿里的運營 營銷 真特么牛逼


這個名字

冰淇淋嗎

————————————

樓上已經說的不錯了

不過現階段硬體的迭代速度和 全浸沒液冷數據中心 的維護成本而言我短期內不太看好

不過國內的低PUE普及肯定是未來的發展趨勢

至於技術領域

短期內宣傳價值高於實際價值


推薦閱讀:

德國能源轉型(Energiewende)簡介
這家互聯網車企說,將來不靠賣車賺錢
REN21最新發布《2016年全球可再生能源現狀報告》

TAG:伺服器 | 能源 | 伺服器集群 |