咨詢QQ:
      雜志訂閱

      編輯

      網管

      培訓班

      市場部

      發行部

電話服務:
 010-82024984
 010-82024981
歡迎, 客人   會員中心   幫助   合訂本   發布信息
設為首頁 | 收藏本頁
數據中心能效控制及節能潛力分析
  • 以北京某數據中心全年運行能耗數據為基礎,分析數據中心全年度PUE變化趨勢。通過解構PUE中制冷因子組成與占比,分析能效控制水平及未來可改進空間。
  • PUE(Power Usage Effectiveness,電能利用效率)是由美國綠色網格組織(TheGreenGrid,TGG)提出的評價數據中心能源效率的指標,因為該指標簡單且直接反映數據中心基礎設施的能源利用效率,目前已經成為國際上比較通行的能效衡量指標。PUE值是指數據中心消耗的所有能源與IT負載消耗的能源之比。PUE值越接近于1,則表示一個數據中心的綠色化程度越高。
      
      相對應的,評價空調系統的能效可以用空調制冷負載系數CLF(Cooling Load Factor),CLF定義為數據中心中制冷設備耗電與IT設備耗電的比值;評價供電系統的能效可以用供電系統負載系數PLF(Power Load Factor),PLF定義為數據中心中供配電系統耗電與IT設備耗電的比值。
      
      2018年10月,上海市政府發布了信息基礎設施的三年行動計劃通知,通知中對新建數據中心PUE限制在1.3以下[1]。此文件在當時掀起一陣輿論漩渦,數據中心建設運營方普遍表示此能效指標很難達到。
      
      2019年4月,深圳市發布通知[2],強化節能技術創新支撐作用,采用綠色先進技術提升數據中心能效。文件指出:對于PUE值為1.40以上的數據中心,不給予新增能源消費量替代量支持;對于PUE值低于1.25的數據中心,新增能源消費量可給予實際替代量40%以下的支持。
      
      數據中心采用傳統的冷凍水空調系統制冷,在上海PUE是否可以實現1.30,在深圳能否實現1.25PUE?本文將以實際運行的數據中心作為案例進行分析。
      
      一、數據中心總能耗與PUE變化趨勢
      
      2010至2020年全球IDC市場規模年復合增長率近20%,快速發展數據中心能源利用也不斷攀升,甚至使地區電網供電容量短缺。數據中心的高耗能意味著高碳排放,如何提高數據中心能效水平減少碳排放是我們必須面臨的課題,建設綠色數據中心是行業可持續發展的必然道路。
      
      Uptime Institute每年發布的數據中心行業調查報告顯示,2007年全球數據中心PUE平均值為2.5,2019年為1.67[3],能效水平顯著提升,見圖1。根據IDC發布的報告[4],國內大型企業投運的數據中心PUE低于1.5的比例為12.9%,總體能效水平還有很大改善空間,詳見表1。
      


      二、數據中心案例介紹
      
      2.1項目概況
      
      (1)項目規模及設計等級
      
      本項目位于北京市,為某云服務商定制化數據中心,鋼筋混凝土框架結構。項目分為兩個模組,IT機柜功率密度主要容量為7kW和9kW,IT總設計負荷13000kW,市電供電總容量21000kVA。
      
      基礎設施按國標A級標準和Uptime標準進行設計建設,供電系統、通信系統為TierⅣ等級,空調系統為TierⅢ等級(內網核心的空調系統達到Tier Ⅳ級別)。
      
      (2)供電方案
      
      IT設備中,網絡核心機房IT設備采用雙路48V直流電源供電,主機房IT設備采用一路市電和一路240V直流供電。
      
      (3)制冷方案
      
      兩個模組設獨立的制冷系統,制冷系統采用模組化設計的冷凍水空調系統,具有獨立的冷源、蓄冷罐和管道輸送系統;輔助區空調采用VRV系統。冷凍水空調系統采用850RT變頻離心式冷水機組,3+1冗余運行;冷凍水系統設計為二次泵系統。
      
      模組1空調末端為冷凍水行級制冷機組(InRow),封閉熱通道;模組2空調末端為房間級精密空調(CRAH)方案,彌漫式送風、封閉熱通道。
      
      2.2 PUE采集位置
      
      PUE的測量位置和記錄數據連續性對結果有很大影響,本案例中總耗電量采集位置為市電進線10kV計量數據(圖2計量點A),IT耗電量采集位置為列頭柜進線側(圖2計量點B),為便于能效優化,對不同的配套設施的耗電量進行了分類計量(圖2計量點C)。
      
      PUE計算方法為:
      
      2.3 模組2實際運行PUE統計
      
      本案例冷凍水行級制冷機組(InRow)模組2018年全年PUE平均值為1.163,在北京區域能效水平領先,單日PUE最高值為1.265。IT負荷率為65%-75%之間,實際運行能效數據統計如表2。
      
      從實際運行統計數據可以看出,冷凍水空調系統綜合效率并不是如印象中的低效率,在北京市全年CLF因子可以低于0.09,如果進一步進行精細化管理仍有希望取得更高的能效水平。

       項目全年能耗組成結構如圖3所示。
      
      由圖3可以看出,數據中心除IT以外的能耗中供電系統和制冷系統占比為85%,照明等其他負荷占比僅為15%,對于PUE控制較差的數據中心照明等其他負荷占比更低。所以,數據中心對CLF和PLF的分析尤其重要。
      
      CLF計算方法為:CLF=空調系統總能耗/IT總能耗,本項目中空調系統總能耗包括冷源系統、末端系統、風機熱泵、除濕設備以及制冷系統輔助設備的能耗。
      
      PLF計算方法為:PLF=供電系統總能耗/IT總能耗,本項目中供電系統總能耗包括不間斷電源、變壓器和電源質量治理等設備的能耗。
      
      三、供電系統能效分析
      
      3.1供電系統能耗構成
      
      數據中心主機房每個IT機柜均由兩路電源供電,一路為HVDC電源,另一路為市電供電電源,兩路電源均分負載。采用市電直供技術和HVDC技術,市電供電效率大幅度提升。HVDC系統在低負載率時可根據負荷情況關斷部分功率模塊,低負載率時也具有很高的效率。
      
      供電系統全年平均PLF為0.0515,其能耗組成如表3。
      
      從表3可以看出,供電系統耗能比例相對穩定,與季節變化關聯性小。
      
      3.2 供電系統能效提升空間
      
      (1)變壓器PUE因子提升約0.004
      
      表3中可推算出變壓器全年能效平均值為98.73%,與一級能效變壓器還有差距。按國標《電力變壓器能效限定值及能效等級》(GB20052-2020)的規定,10kV干式變壓器I級能效實際工作效率可高于99.2%。采用I級能效變壓器,并使其工作在最佳運行負載率區間,變壓器效率可提升約0.47%,折合PUE因子提升約0.004。
      
      折合方法說明(下同):
      
      變壓器PUE因子=E變壓器損耗/EIT耗電量=E變壓器損耗/(E總耗電量/PUE)=PUE×E變壓器損耗/E總耗電量=PUE×η變壓器效率,PUE因子差值即為提升值。
      
      (2)100%市電直供可提升變換設備整體效率可提升至99.5%
      
      根據表3,HVDC的全年平均效率為(1-0.0236×2)×100%=95.28%,如仍采用HVDC供電,效率提升空間有限。為進一步節能,數據中心IT設備可逐步過渡到100%市電直供,供電技術架構可參考圖4和圖5。技術方案中不間斷電源可以采用UPS供電也可以采用HVDC供電。如采用IT設備采用市電100%供電,不間斷電源作為備用,電源變換設備整體效率可提升至99.5%,效率提升4.22%,折合PUE因子提升約0.036。
      
      一路市電和一路HVDC設備聯合為IT設備供電時,整流模塊可以處于休眠狀態以提高系統效率,市電供電回路故障時蓄電池組提供短時緊急供電,30秒內HVDC系統可以啟動滿載運行。一路市電和一路交流UPS設備聯合為IT設備供電時,UPS整流電路可以處于部分休眠狀態,蓄電池組通過逆變器提供短時緊急供電,30秒內交流UPS系統可以啟動滿載運行。
      
      綜上,供電系統PUE因子提升空間不低于0.04。
      
      四、暖通系統能效分析
      
      4.1 暖通系統能耗構成
      
      以下分析的是模組1暖通系統PUE因子和能耗結構。冷凍水空調系統采用850RT變頻離心式冷水機組,3+1冗余運行,空調末端為冷凍水行級制冷機組(InRow),封閉熱通道;冷凍水系統設計為二次泵系統。輔助區空調采用VRV系統。其全年PUE因子和單日最高值統計如表4所示。
      
      在北京市,不能直接利用自然冷源的情況下,以上運行效率已經非常優秀,達到同緯度區域先進水平。對暖通系統各組建進行能耗分析,可以得到各組件能耗占比如圖6所示。
      
      4.2 制冷系統與冷凍水溫度的關系
      
      本案例中冷機能耗占比28.34%,低于末端空調36.02%占比,取得了很高的運行能效,主要得益于兩方面的措施。
      
      (1)提高冷凍水出水溫度PUE因子提升0.08冷水機組不同供水溫度直接影響冷機運行效率,
      
      冷水機組的額定工況供回水溫度為7℃/12℃;在本案例實際運營中,運維團隊大膽突破傳統,在保證機房溫度可控前提下大膽提升冷凍水供水溫度,大幅提升冷機效率;實踐中將冷機供回水溫度提升至19/26℃,實測冷水機組COP為10.86,較設計參數提升60%。以下為1000RT冷水機組不同供水溫度與冷機COP的關系圖,見圖7。


      
      本項目冷凍水送水溫度保持在19℃左右,短時間出水最高溫度控制在19.5℃以內,在夏季COP也可以保持10以上,從而得到了很好的節能效果。圖8是本項目冷水機組PUE因子(上半部青色曲線)與北京另一項目冷水機組PUE因子(上部紅色曲線)的對比,下半部為2018年全年北京市濕球溫度曲線。從對比曲線可以看出,提高冷水機組出水溫度后PUE因子提升了0.08左右。需注意的是上部紅色曲線所代表的的項目,因夏季IT負載率整體在40%左右,冷源系統的能效隨IT負載率上升,仍有較大的提升空間。故提高冷水機組出水溫度后,對PUE因子的影響實際會壓縮至0.05左右。
      
      (2)提高自然冷源利用時間
      
      冷水機組供水溫度每提升1℃全自然冷源利用時間可以提高200多個小時。因本案例中冷水機組供水溫度提升,自然冷源利用時間大大延長,從圖8對比可以看出,自然冷源利用時間超過對比項目20%以上,從而最大限度的保持了制冷系統的高效。
      
      空調末端大溫差循環提升自然冷源利用時間。目前行業內標準的數據中心供回水溫差是5℃,實際運行普遍低于此數值,運維團隊通過實踐,達到8℃循環溫差,較行業標準增加600余小時的自然冷源時間。
      
      (3)水泵、冷機、風機降頻、并行

       項目團隊通過實際運行測試,當電機頻率由50Hz降低到25Hz,功耗降低到1/7,節能效益顯著。在本項目中普遍使用電機類設備采用變頻控制,大大提升了設備運行能效。
      
      4.3 制冷系統能效提升空間
      
      本案例中空調制冷系統采用傳統冷凍水空調系統能效水平已經十分優秀,未來能效提升空間有效。進一步提升制冷系統能效主要方向有以下幾個方面。
      
      (1)定制高溫IT設備
      
      按GB50174-2017的要求,數據中心推薦的冷通道或機柜進風區域的溫度為18℃~27℃。為安全考慮,IT機柜租賃方對第三方數據中心服務商提出的SLA中,冷通道溫度一般不高于25℃。在送風溫度方面還有很大的改進空間,如采用高溫服務器運行32℃以上送風溫度,則可以進一步提高制冷系統效率。高溫服務器受制于IT設備成本和云服務商的積極性,推廣難度較大。
      
      以前,云服務商更多從安全運行角度考慮,IT設備對送風溫度要求較高,在現有的IT設備基礎上盡量提高送風溫度也可以很大程度提升制冷系統能效。大量的實際案例說明,進風區域的溫度為27℃~28℃,IT設備安全性無明顯影響。另外,云計算和虛擬化技術的應用對單個IT設備的可靠性容忍度提升,對設備送風溫度的提高也較為有利。
      
      (2)水冷背板空調提高冷機送水溫度水冷背板空調靠近熱負荷,可提升冷機供水溫度1℃以上,但因為存在漏水風險,行業接受度較差難以推廣使用。
      
      (3)液冷技術
      
      隨著綠色機房概念的提出,節能與環保成為數據中心未來發展的主要技術方向,而如何解決高密度服務器的散熱問題成為制約數據中心機房發展的瓶頸。隨著相關材料、信號及熱交換技術的發展,冷板液冷技術和全浸沒式液冷技術得到了很好的發展。液冷技術在超算應用成熟,目前在數據中心主要受限于成本和主設備對液冷方式的支持。
      
      冷板液冷技術制冷PUE因子可以降低到1.08左右,全浸沒式液冷技術PUE因子可以降低到1.05以下,制冷系統的能耗將大大降低。
      
      (4)人工智能應用
      
      谷歌成功的將人工智能應用于數據中心的能效管理,每30s就計算一次PUE,還不斷跟蹤IT設備能耗、機外氣溫以及制冷和機械設備的設置情況等。對這些數據進一步利用,通過機器學習對這些數據進行研究,并建立起模型來預測并進一步改進數據中心能效。谷歌全球數據中心TTMPUE達到1.1,人工智能功不可沒。未來人工智能工具在減少數據中心能耗和浪費方面將發揮著越來越重要的作用,同時可以節約人力成本的投入。
      
      五、結論
      
      北京、上海和深圳濕球溫度的最高值分別為31℃、31℃和31.4℃[5],空調系統的制冷效率與空氣濕球溫度密切相關,供電等其他能耗組成部分與建設地點相關度低。本案例中北京市單日PUE最高值為1.261,意味著數據中心全年均按最高濕球溫度運行全年平均PUE應不高于1.27。
      
      從空氣濕球溫度數據來看,上海和深圳最高濕球溫度與北京接近,這意味著在上海建設數據中心采用傳統冷凍水空調系統完全可以實現1.30全年平均PUE目標,考慮冬季自然冷源利用、過渡季部分自然冷源利用后,在上海有可能實現全年平均PUE1.20的目標。
      
      深圳全年氣溫偏高,冬季最高氣溫也超過25℃,對自然冷源的利用較為不利,如考慮蒸發制冷技術有可能實現全年平均PUE1.25的目標;如考慮冷凍水空調制冷,在采用一路市電+一路不間斷電源聯合供電且能做好精確送風、精細化控制時,有可能實現全年平均PUE1.25~1.30的目標。
      
      參考文獻
      
      [1]《上海市推進新一代信息基礎設施建設助力提升城市能級和核心競爭力三年行動計劃(2018-2020年)》(滬府辦發〔2018〕37號).
      
      [2]《關于數據中心節能審查有關事項的通知》(深發改〔2019〕414號).
      
      [3]《2019年數據中心行業調查報告》,UptimeInstitute.
      
      [4]《2019中國企業綠色計算與可持續發展研究報告》.
      
      [5]空調設計參數選型軟件WEATHERDATAVIERERv6.0,SOFTWAREbyASHRAE,2017.
      
      編輯:Harris
      
      

  •  
  • 24小时日本在线观看视频