國內有年平均 PUE 低於 1.3 的數據中心嗎?

國內互聯網數據中心幾乎被電信和聯通兩大運營商壟斷。費用結算方式決定數據中心對電費成本不夠敏感。本人曾今見過的較好的機房,每機架功率密度在4 KW左右;某公司試驗機房功率密度能到8KW/Rack,PUE能做到1.4。還有做得更好的么?


就目前了解的情況,我個人覺得國內應該還沒有PUE(這裡都是指1年平均值)低於1.3的數據中心,大致有以下幾個方面的原因:

1. 綠色數據中心、PUE等概念進入到國內已經比較晚,而數據中心的選址、規劃建設、到其基本滿負荷運行達到最佳PUE,本身也可能需要幾年時間;

2. 國內許多數據中心,特別是對外提供託管服務的IDC,歷來最重視高可用性,意味著有更多的供電、空調等冗餘設備,這完全無益於PUE;

3. PUE要降到1.3這個級別,必須得有一些非常規手段,例如採用自然冷源、棄用UPS、封閉冷通道、放寬溫濕度範圍等等,而國內的相關標準、規範並沒有考慮節能需要隨之更新,某些節能措施可能與目前要求衝突;

4. 降低PUE是為了換取長期的TCO下降,為了降低到1.3這個級別,初期的投資可能會增長很多,還可能降低數據中心可用性,不是所有人都能算清楚這個帳並願意冒風險的。

前一段正好有機會與國內其它運營商、互聯網公司交流相關主題,大家普遍認可,目前國內PUE做到1.6以下,就應該算很不錯的了,可以算做綠色數據中心了。當然,我們也還不知道,到底有多少國內的數據中心,能夠準確的拿出過去一年的PUE值來。

至於Google、Facebook如此誇張的PUE,其它公司(包括國外其它很多數據中心)實際上很難做到,你能夠接受自己的伺服器跑在溫度為35度、完全不考慮濕度的機房中、外電斷開後電池只能堅持幾分鐘嗎?反正運營商的IDC肯定沒戲,國內的互聯網公司,比如騰訊,將來可以朝這個目標努力。

另外,定製化伺服器主要是為了降低伺服器自身的功耗、降低成本,對PUE可能並沒有直接貢獻,PUE值與單位機架功率大小也沒有直接關係。


PUE不大於1.4在空調技術上是可行的。制約PUE的,我認為,現階段主要是冷卻技術、空調技術、如何高效排熱的問題。

貼一個清華大學江億院士的演講:

各位來賓、各位專家、各位領導早上好!我好象是第一次參加綠色數據中心的技術大會,因為咱們不是搞計算機這行的,是搞空調,搞建築節能的,但是好象也慢慢把我們推到這個行業了。為什麼?是因為空調的能耗或者說派熱降溫的能耗在數據中心裡佔了比較大的比例。所以,剛才我聽前面這位領導講數據中心都快到了運行這個程度了,運行主要是能源消耗,能源消耗里就40%或者更多是空調的能耗。所以,怎麼能夠降低空調的能耗,一方面給國家的節能減排作貢獻,一方面也使我們數據行業產生更好的經濟效益,就變成重要的問題了,所以我今天跟大家彙報一下我們在這方面的想法跟體會。

  從空調的特點來看,現在隨著計算機電子技術的發展,晶元技術都比原來高,主機的發熱度越來越大,這樣導致空調排熱成為這裡面大的部分。後面有一些細的發展狀況不說了,就直接看到空調裡頭。現在統計大致的結果,對於中小型的數據中心大概PUE值都在2,或者以上,這是空調佔了一半或者還多的一個能源消耗。對大型的IDC機房管理做的比較好的,這時候空調效率相對比較高,但是也能佔到40%左右的能耗。

  所以,降低數據中心的能耗可能一個是提高伺服器的使用效率,沒活兒的讓它歇著,一方面減少了空氣的運行能耗,當然,電源也有可以提高的技術。空調應該有很大的潛力,空調裡面的能耗由什麼構成?以前一想說制冷機,壓縮機耗電多,實際上壓縮機耗電在50%-60%左右,除了壓縮機之外,風機也能佔在40%或者更多的空調耗能。

  現在的情況什麼樣?大概有這麼幾塊:第一、因為全年製冷,所以絕大部分的數據中心制冷機都開了,這是一年來總的空調的考點狀況,可以看出冬天、夏天區別很少,北京、上海、廣州冷的地方,熱的地方區別很少,應該說冬天天涼了,北京空調越來越大幅度下來,這個變化也不大,所以全年度在這兒用。然後,有關發熱密度非常大,負責把這些熱量排走,所以循環風特別大。並且風吹的還厲害,不行把風量減少,降低送風溫度,但是當冷源溫度低於屋子裡溫度的時候,蒸發器就凝水,恨不得天天都出濕,出了濕又怕屋子裡太干,所以又有了一些加濕器,這邊除濕,那邊又得加濕,又得用電,冬天大冷的天還得製冷,這構成了現在數據中心,無論是大的,還是小的空調能源消耗高的主要問題。

  有這樣問題是壞事兒,反過來又是好事兒。說明咱們在這兒的潛力特別大,有很大的潛力可以把空調能源消耗降下來。那麼,走哪條道?怎麼做?一聽說這個空調跟你們建築節能是一碼事,建築節能都抓圍護結構保溫,咱們整這個,圍護結構,效果非常小,或者無效果,為什麼?因為一個IDC密一點的機房一平米大概產熱量3-5千萬,通過圍護結構進入或者出去的熱量不會超過摺合在佔地面積上不會超過50瓦,所以,圍護結構的影響很小,就是1%,2%的影響。當然,通過一些技術,避免外牆直接太陽輻射,比來我這兒熱,再拿太陽照我,儘可能的密閉,別讓風進來,這是很重要的。可能有些專家說,風滲進來,有什麼不好,如果房子做的不密閉,就是不可控制的室外滲風,是涼快了,但是濕度下降了,夏天熱容器不好,而且由於室外的濕度變化大,我數據中心裏面希望濕度維持基本穩定不變,給我添加濕、除濕的麻煩事兒。因此,通過各方面應該把房子做密閉了,對目前來說不是保溫的事兒,而且密閉的事兒,密閉最重要。

  那麼,怎麼把熱量排出去,馬上前幾年一些企業想辦法說既然冬天不開制冷機,而且外邊涼,最簡單的通風換氣吧,是通過涼風進來,把熱量排走,這是有點節能,但是恐怕數據中心這麼做不太合適,為什麼?室外的灰塵贓,機器得乾淨,濕度室外是變化的,夏天北京的一立方米空氣有2克的水汽,另外中國是燒煤的國家,70%的化石能源都來自於煤,燃煤就出硫,硫化物到室內,就會導致表面發生腐蝕現象,所以這是不行,您的冷卻系統是為主機服務的,要是有損於主機,無論是灰塵還是硫化物,還有濕度都會影響主機的壽命,這是絕對不能有的。因此,說就想法通過過濾消除灰塵,想法加濕、除濕改變濕度,想法脫硫,當把這些東西都架上,就發現投入的成本和能源消耗就不低了,而且維護管理的工作量立刻上去了,那麼這麼大的數據中心要求高可靠性運行,於是這事兒有點彆扭了。

  還有通過熱交換把涼氣取回來,這個思路是挺好,對於一些小規模的計算中心,像一個大樓里的數據中心有時候還可以,但是對於大規模的機房是無法實現的,是因為直接走風道這麼大發熱量得有多大的風量直接室外來回換氣,風道的體積在那兒擺著不合適,然後維護工作量非常大,尤其還是贓。所以,室外的低溫必須想法用上,是通過室外的新風,怎麼通過某種能量涼下來,最後把機器裡面的熱量帶走。

  所以,整個的數據中心的空調跟咱們樓里的空調概念不一樣,它的核心事兒就是怎麼把晶元那兒出來的熱量通過某種介質傳熱,傳完之後,幾次交換,最後導到室外去就這麼一個任務。所以,這時候根本目標就是讓晶元的溫度不要超過標準溫度,然後把這個溫度排出來。這樣晶元表面溫度和冷源溫度的差跟熱阻成正比,就是怎麼把這個等效熱阻降低了核心的事兒就變成了這麼一個問題。溫差小就是如果我晶元溫度不許超過40度,如果我的溫差是20度,只要室外溫度低於20度,我就不用開冷空氣就可以把熱量排走,所以就要減少等效熱阻。那麼,這個等效熱阻由什麼構成?發現就像咱們的一個網路,三個電阻,三個等效熱阻,哪三個過程?一個就是晶元跟空氣之間的換熱環節,這個差越大,溫差就越大,比如我可以取平均溫度,等效熱阻就是這塊面積除以熱量,第一個環節就是容器跟晶元表面換熱的環節。第二個環節,比如說我有一個精密空調跟水,或者室外的冷水換熱,這冷水跟容器之間的換熱環節,我們叫輸送與換熱熱阻。第三個環節,循環介質與冷源之間換氣,叫做冷源換熱熱阻。比如說室內溫度到20度,實際只欠10度的溫差,這時候冷空機提供的活兒就是這10度的溫差。所以,把熱阻減少了,無論是用自然冷源還是開冷風機都可以降低功耗。因此,核心的問題就是把這三個環節的熱阻降下來。所以,就三個關鍵,第一、降低熱量採集過程的熱阻,同時不增加風機電耗。第二、降低熱量傳輸過程中的熱阻,同時不增加傳輸電耗。第三、找到溫度更低的自然冷源,但是別破壞環境。

  下面逐條看,採集過程中的熱阻,實際的採集熱阻,除了空氣跟晶元換熱之外,還有相當大的消耗是機房裡面冷風跟熱風的互相攙混,制冷機就是把冷風熱的溫度分開,分出冷熱風,這個屋子裡面又沒地兒跑,又攙混起來了,所以避免冷風熱機的攙混。比如說要是給定晶元溫度,當攙混小的時候,迴風溫度可以更緊的接近晶元,如果我恆定晶元溫度迴風少的時候,這樣就可以更大程度的利用這個資源。有一些實測的數據,是在大的IC機房裡實測的,大家可以看出來,比如冷通道進來,從機房送出來應該這兒是16點幾度,到這兒怎麼就能30多度呢?它這兒上面還有一塊擋,這30多度是哪兒來的?就是因為部分的過了伺服器之後,伺服器裡面有空檔,空檔的熱風又滲回來了,熱風跟這些東西攙混到這些地兒,能到35度。為了保證上面伺服器的這些效果,於是就得降低送風溫度,為了保證上面差不多,結果把這個溫差就拉大了,導致整個的冷交熱的增加。所以,這兒看著排風有40度的,這些排風35、36度,總的到空調下一看,派風溫度才28度,怎麼降下來了?就是涼風過去跟熱風攙和起來了,這樣晶元大概在45度以上。如果避免了這些混合之後,就可以把迴風溫度很容易提高到35度,輸送溫度也可以提高到20度,保持晶元溫度最高的溫度不變,於是這溫差小多了,採集的等效熱阻下來了。當然,具體計算可以拿出溫度差仔細算出來知道什麼毛病,總的指導思想是這樣的。所以,在機櫃頂部架一些擋板,這樣能夠有點改善。但是由於金桂內刀片式伺服器之間不可避免存在氣流短路現象,因此,仍存在短路現象,使冷氣流通道內有旁通過來的熱氣流,熱氣流通道內也會有旁通過來的冷氣流。

  還有就是直接把換熱器安裝在機櫃內,在機櫃內或者機櫃旁製備冷空氣,可以有效減少摻混這樣現象,降低熱量採集過程溫差,可以減少風量、豐足,大幅降低風機電耗。所以,這是很重要一條,但是不能讓柜子出水。

  這樣有一種做法,就是採用背板冷卻,將空調系統熱換器安裝在裝載IT設備的機柜上,根據機房內各個不同的機櫃實現按需供冷,避免局部熱。分散式製冷系統使空調系統的吸熱端更接近熱源。這是第一個減少採熱採集過程中的熱阻。

  第二減少輸配過程中的熱阻,實際這個環節比如一條空調器,是空氣跟水的換熱,那麼空氣溫度是這樣的,水溫度是這樣的,就會看到有時候往往都不是平衡的,是帶三角形性質的,只要帶三角形性質,就浪費一部分溫差。所以,想法調整兩邊的流量,使得兩邊的溫差接近,可以有效的降低數配系統的等效熱阻,或者減少等效溫差。有時候說是由於我用背板,或者機櫃里的換熱器那裡面不是走水,無論是走二氧化碳,還是走氟利昂,這是機櫃內送派風溫度,這是熱管溫度,這是室外側進出口溫度,是這麼一個過程,(如圖所示),還有一種換熱器,每排的熱管單獨連接,這時候室內室外的溫度就變小多了,儘管換熱面積一樣,它就強多了。當然,這樣會導致熱管布置起來要複雜,但是在二者之間,總有一個好的權衡去減少輸送過程的熱阻或者說降低它的溫差。

  第三條就是到底我們用什麼樣的室外的自然冷源和怎麼把這自然冷源跟我的機械製冷有機的統一結合起來?因為有時候天熱還得開冷機,這二者之間能不能實現一個比較自然的轉換?我們現在看看到底把這個熱量往哪兒排,實際在空氣裡面並不是一個空氣的問題,咱們有三種溫度,一種就是空氣的幹球溫度,像今天大概室外27、28度,是天氣預報說的溫度。直接換熱就是幹球溫度。但是,如果我對外面拿冷卻塔噴水,就是濕球溫度,大概23、24度。比如到五一濕球溫度比幹球溫度低的多,所以通過冷卻塔就可以降低濕球溫度,還可不可以再降低,還有一種就是間接蒸發冷卻,西部地區很多地方用它做空調,它可以把試問降到室外的露點溫度,像現在這個時候,北京的露點溫度低於20度了。

  這是拿北京氣侯為例,藍的是全球的幹球溫度,紅的是濕球溫度,綠的是全年的露點溫度的變化。所以,我要是安全露點溫度考慮問題,全年北京市5876小時低於20度的時間佔全年的67%,如果熱阻做好了,就只有10%幾的時間,做不好,15度的時候,露點溫度也能佔到77%的時間。所以這個比例還是挺大的。

  那麼,怎麼跟制冷機統一起來,實現無縫連接,自然過渡呢?這是一個方案,包括幾部分,先說柜子,剛才我講背板式的換熱,現在是上下的換熱,屋子裡的空氣26度,從這兒進入機櫃,兩組換熱器,一組一個管給19度,一個管給16度,經過兩種換熱,從26度到20度,經過發熱的伺服器,達到32度,然後經過兩組換熱器降溫,又變成26度,再回來,維持屋子裡的溫度是26度,不是靠屋子裡別地兒裝的孔,而是靠這個機櫃,屋子裡的溫度是由機櫃決定的,由於屋子裡的溫度是16度,露點溫度只有12、13度,我把物資弄密閉了,人也不怎麼進去,裡面沒有濕的事兒。然後,這四組換散熱器,拿熱管引出來,這四組是16、19、22、25度,然後這個水就是跟這熱管換熱,把熱量都帶到水裡去,所以從15恩度,漲到24度。然後,24度,如果室外是兩管,冷空氣不用開,直接經過間接冷卻塔就能夠把水溫降大15度,如果溫度再低,只要朝這風機跟這兒的轉換裝置,能夠維持我進入到換熱器全年只有15度。當室外溫度高到30度,露點溫度到18度,這時候冷卻塔還能起一點作用,能起1/3的冷量還從這兒出,不足了再拿冷風機降一部分。所以,這個冷風機是連續的就能夠使得冷風氣從10%的複合逐漸加到5%的複合。冷卻塔只要露點溫度在20度以下,總能起點作用。

  這樣一個系統,這兒計算了一下,拿北京的氣象條件可以看出來,如果是這麼一個機房,跟一般傳統的機房來比,咱們就直接取它一年用電量是百分之百,那麼即使沒有自然冷源,就是拿制冷機做,但是因為我減少了摻混,減少了數配能耗,能夠節能40%幾。如果用最好的間接冷卻方式,用電量只有23%,能夠節省70%的電量,所以有巨大的節能潛力。

  按照這個思路,我們有一些機房的改造實例,這是清華大學圖書館的一個全校支持整個學老師、同學做研究的數據中心。它原來就是在這個屋子裡頭擺了一堆空調器,機器多了,熱量還大,所以追加了好幾台空調器。用了跟剛才這個圖差不多的方式,結果總機櫃裡面的風機降到7千瓦,這時候能效比從2.7漲到8.2,就只用原來1/3的能耗。最熱的時候,冷機都得開了,即使如此,能耗還能差一半。所以,全年下來總的能耗消耗能夠降低60%左右,這就是一個實際案例,這個還有一些遺憾的地方,就是做得不徹底,做得徹底了,還能夠進一步降低消耗量。

  總結一下,就是數據中心排熱的空調實際上有巨大的節能潛力和節能空間。它的核心是機房的氣流組織怎麼採集熱量合理的空調器,其中幾個基本原則,一個就是儘可能避免不同的溫度的氣流摻混,我們現在對機櫃進行空調製冷的目的,不是對機房進行空調製冷,所以儘可能把冷源越貼近發熱體越好,充分的利用自然冷源,有各種不同的法子獲得不同溫度的,然後想法介紹能耗,這樣給出去的這些思路,今天講的某一兩個做法,實際在這個思路下發揮創新的精神還可以創造出好些各種各樣的方案,真正把數據中心排熱的空調能耗降下來。我們覺得完全按照目前大多數方式來比較,有可能把機房的空調節能達到70%以上,相當以機房用電量降低30%以上。剛才我聽領導講,國外發達國家比,機房的PUE到1.2,1.3那跟它機房的位置有關係。在不同的氣侯條件下,實際上抓好這幾條,以自然冷源為主,適當的加一點機械製冷的補充,解決一年裡面20%,25%的節能,完全可以把我們國家不同地方數據中心的空調能耗都有效的降下來,應該做的比發達國家,比美國還好,謝謝大家。


我沒做過數據中心能耗分析,但是我做過兩個大型數據中心的建設。我覺得PUE只是數據中心眾多指標中的一個,千萬不要過於關注。樓上幾位說的都不錯,超低的PUE肯定與選址和特殊設備的利用。我就從這三個方面說說為什麼超低PUE的數據中心並不是最優方案。

1、選址,超低PUE數據中心一定要在一個溫濕度相對良好、空氣清潔度很高的環境(這樣有利於直接使用室外空氣製冷),在中國一個氣溫適宜、空氣清潔的地方大多數都是經濟不太發達的地方。城市的供電、供水、員工素質、網路承載能力都很差,如果一定要選址在這樣的城市還要投入相當大的基礎硬體建設成本,政府會不會配套單說,單就這些基礎硬體的投入就不是一蹴而就的事情。因此現在數據中心選址還主要考慮硬體配套,而不是環境因素。

2、特殊設備的使用。傳統空調製冷電功率一般都是製冷功率的40%-50%,因此想做超低PUE勢必會採用更先進的製冷技術,比如室外空氣製冷、液體製冷或者一些其他輔助技術。這些新技術的應用會帶來一個災難性的後果,那就是維護成本和宕機時間的激增。易於維護、維護時間短、配件通用性強、宕機時間短這才是數據中心選擇設備的原則,空調設備隨便宕機10分鐘所承受的風險遠比高PUE的電費貴多了。

低PUE值屬於那種好看、好聽,但卻完全不實用的東西。一個超低的PUE值一定是犧牲了其他方面換來的。這玩意就像坦克一樣機動、火力和防護只有三者平衡了,才是完美的設計,任何一項的突出都是犧牲了另外兩項的結果。


說一下我得認識,降低PUE基本都是如下幾種:

1.風冷、水冷以及IDC選址

2.IDC電力鏈路精簡,即減少電力交直轉換。現在國內應該都是交流工業電-直流UPS-交流UPS點-伺服器電源-直流供電。

3.伺服器精簡不必要配件或使用高端低功耗配件。如減PCI插槽、減ILO/DRAC卡、使用低功耗電源,CPU壓力不大時採用低功耗CPU等等。

能實現上面種種的,也僅僅像報道出來的1.1、1.2、1.3左右。所以國內PUE低於1.3的應該很少很少。年平均PUE達到這樣的應該更少,畢竟公布出來的數據都會稍微漂亮些。


目前還沒有,但是要達到這個目標可能性挺大的,特別是互聯網公司有機會。


阿里在千島湖的、張北的數據中心都在1.3以下了,選址選的好啊,一個靠近水,使用水冷。一個比較冷,極少使用壓縮機空調製冷。


從技術角度,是完全可以的。

我司做過的最極端的一個項目,夏季PUE測試值1.215。

想要做到這個,選址只可能黑龍江。製冷方式要選擇合適的自然冷卻途徑,減少冷機(壓縮機)使用。

PUE越低,實際上就是OPEX越低。相應的CAPEX可能就越高。

甲方考慮的都是TCO,即CAPEX+OPEX,不可能單純的追求PUE這個數值的。


就國內很難達到這個數值,個人認為PUE主要影響因素主要在:選址、空調系統、電力系統以及其他不可調和因素。

選址上主要是南北方差異造成空調系統選擇上的差異(北方可以用風冷,南方很難),如facebook那個在北極圈1.07的數據中心,全風冷牆設計,因為當地近60年來的最高氣溫超過30°的不足4天。

選址決定了空調系統的選址,冷熱通道隔離是一種輔助措施,不能完全改變空調系統在PUE里所佔數值,現在出現了放棄空調整機(Goolge、facebook 的IDC都採用)這個可以減少不必要的損耗。

在電力系統方面,高壓直流比UPS在能耗節約上跟有優勢,不過就國內而言240V的標準與國外無法對接,336V的對於設備要求也無法在近期實現。(騰訊、百度目前部分機房採用了高壓直流)外加高壓直流末端設備比較貴,TCO不一定核算。

其他不可調和因素就不一一舉例了。


關於PUE數據,我想只有google是最誠實的——Yahoo的1.08,Facebook的1.07都是瞬時值(某天的某幾個小時),只有Google發布年平均值和季度平均值。

關於數據中心,推薦一本書:

The Datacenter as a Computer - An Introduction to the Design of Warehouse-Scale Machines.


國內PUE值要做到1.4以下,這種數據中心多半就是靠吹,有前面的回答很正確,選址,大部分的數據中心都在東部大城市裡,一年內需供冷的季遠超供熱季,無法利用環境的溫度降溫,無論多麼牛B的設備,在又濕又熱的環境中都不可能達到設計參數的,所以,PUE到1.4,只有作弊一條路了,PUE值是算整體的,但是在國內基本上只算用於IT機房的負載,而不是從高壓進線一端就算起,如果從高壓端算起,估計大部分的數據中心都要超過2,中型規模的甚至超過4都是有可能的。想達到1.4,最合適的地方恐怕非青海莫屬,冷、干,抽空氣進來洗一下就能用了,要想真正數據中心節能,恐怕還要數據中心自己管理自己,而不能靠人的管理。


老外提出PUE 概念是為了減少碳排放,中國人卻拿來做宣傳,掛牌子,PUE 高與低又如何,無非就是一些大公司的宣傳策略罷了,低PUE ,高TCO ,玩個毛線,你是老闆你選哪個?


我們目前運維的數據中心的PUE已經達到1.3幾了,PUE的降低和選址,前期設計,設備的選用,合理的運維,上架率關係很大,我們目前是做運維的,前面說的幾個我們都把控不了,選址、前期設計、設備選用,我們只能從運維的角度來看。

數據中心的耗電主要集中在IT設備及製冷設備,這兩部分是耗電大頭,而IT設備是客戶的設備,我們是不能動的,所以我們能做的只能從製冷設備的供電來考慮,我們盡量在滿足客戶要求的條件下選用儘可能高的溫度,減輕製冷負荷。除此之外,盡量提高上架率,如果提高不了整棟機樓的上架率,就盡量提高一個機房的上架率,提高製冷效率,這些都有利於降低PUE。


PUE指標受到氣候影響很大,在內蒙或者東北地區做到1.3還是很容易的,如果做到1.5以上那就很二了,而在華南地區做到1.8也是一個不錯的數值,單純看PUE不考慮實際情況是很傻的,PUE值不是和別人攀比的,而是和自己比的


主要還是選址,能夠利用自然冷媒的IDC可以獲得很低的IDC,在自然冷媒中,高緯度自然空冷比中低緯度的水冷效果應該好很多。

另外,Facebook應該不算是不誠實,他們自己的IDC上線也沒有多長時間。


首先,要在一個統一標準上計算PUE,大家都知道的PUE的計算是總負載/IT負載,但是不明確的是,計量點不一致,或計算範圍不一致,將導致很明顯的結果差異。

PUE值的大小無非也就是受幾個關鍵系統性能的影響,如電源系統、空調、IT設備,通過優化和特殊設計使之節能或降低PUE。另外還有一些系統會有影響,但優化空間很小,如照明系統。具體細節就不細說了。

基於上面所說的技術問題,國內的商用IDC市場由於要考慮針對不同客戶的適用性,不太可能把PUE做的很低。業內標榜的那些google,facebook,twitter,microsoft的案例都是經過複雜的重新設計,甚至連伺服器都是經過設計與數據中心匹配的,因此,才能達到一個很低的PUE值。

另外說環境,目前在北歐有把數據中心建在北極附近的趨勢,由於可以直接利用那裡的自然冷源,而且空氣質量非常好,甚至可以直接引入冷空氣作為免費冷源。國內恐怕想都不感想,空氣過濾器設備的維護成本估計也不比電費低了。最多也就是間接通過冷空氣冷卻循環的製冷劑或冷卻水,實現簡介冷卻。


降低PUE最大的貢獻應該在Intel,承受高溫的CPU放進伺服器PUE馬上就能下來。另外室外新風自然冷卻能降低PUE,但是過濾網你可能要每天一換。哈哈。一般來說UPS+風冷空調 PUE做到1.7就不錯了。還要啥自行車啊


選址很重要,1.3的話,阿狸最近在千島湖建設一個IDC,利用的千島湖的湖水進行水冷,減少使用UPS

最近好多人去參觀,現場實測,1.26?


目前國內PUE最低的數據中心是百度M1數據中心(非實驗機房性質,實際運營),全年平均最低1.36,百度正在建設的兩個大型數據中心可將PUE控制在1.3以下


目前,北方的數據中心的PUE在1.3以下的應該不少.影響PUE的因素很多,主要體現在以下幾個方面:

1.客戶數據中心的選址,選址的優劣直接影響著將來數據中心製冷系統的選型和運行,選址非常重要.現狀是數據中心大多分布在北上廣深等沿海地區,在上海、廣州、深圳的數據中心要達到全年運行PUE在1.3以下確實比較難。

2.設計質量的好壞直接影響運行PUE高低。在設計階段,方案的合理性及設備選型和計算非常重要。現狀是很多設計團隊沒有做到詳細計算、合理選型,造成設備容量余度較大,運行效率較低,再加上數據中心內部的伺服器部署是分期的,沒有考慮伺服器分期部署而制定相應的運行策略,也是造成以後運行中PUE過高原因之一。

3.運行維護,很多數據中心的基礎架構不具備免費製冷的條件,沒有辦法在秋冬春三季充分利用自然製冷,這是其一,有些數據中心維護人員怕出錯,一般能不切換運行模式的就不切換,也是造成PUE高的一大原因。

以上是比較淺顯的意見,僅供參考。


中國移動(哈爾濱)數據中心,機房空調採用北京納源豐熱管背板空調,經實際測試PUE 為1.18。歡迎諮詢,電話13282814567。微信74580641 程


推薦閱讀:

小米智能路由器,定位在家庭雲數據中心,劍指智能家居,小米做智能家居是用Wifi協議還是採用Zigbee協議?
數據中心架構下ospf bgp如何選擇及優缺點?
數據中心運維需要具備哪些知識和能力?
數據中心日常運維工作的內容有什麼?
請問Arista是間怎樣的公司?

TAG:互聯網 | 數據中心 | 綠色數據中心 |