• <strike id="fdgpu"><input id="fdgpu"></input></strike>
    <label id="fdgpu"></label>
    <s id="fdgpu"><code id="fdgpu"></code></s>

  • <label id="fdgpu"></label>
  • <span id="fdgpu"><u id="fdgpu"></u></span>

    <s id="fdgpu"><sub id="fdgpu"></sub></s>

    中興通訊的綠色數據中心之道

    2012-08-10 14:04:56   作者:   來(lái)源:通信世界周刊    評論:0  點(diǎn)擊:


      數據中心是信息社會(huì )數據存儲、處理的基石,但是相較于信息數據的爆發(fā)式增長(cháng),其面臨越來(lái)越大的挑戰。

      當前數據中心的困惑

      當前信息社會(huì )的數據量在爆發(fā)式增長(cháng),帶來(lái)的能耗也越來(lái)越高,加上相關(guān)節能政策的出臺、社會(huì )責任的要求等,給數據中心的綠色發(fā)展帶來(lái)不小的挑戰。

      數據量爆發(fā)式增長(cháng)

      依據IDC報告,2006年全球的數字信息量約1610億GB。到2010年,這個(gè)數字達到9880億GB,年復合增長(cháng)率約57%,Cisco更預計2012年每個(gè)月網(wǎng)絡(luò )上視頻流大約為5Exabytes(5000PB)。圖靈獎獲得者Jim Gray提出了一個(gè)新的經(jīng)驗定律:網(wǎng)絡(luò )環(huán)境下每18個(gè)月產(chǎn)生的數據量等于有史以來(lái)數據量之和。到目前為止,數據量的增長(cháng)基本滿(mǎn)足這個(gè)規律。而海量的數據增長(cháng),則意味著(zhù)巨大的能耗需求。

       數據中心的能耗越來(lái)越高

      數據中心的功耗一般從幾十kW到幾千kW,甚至更高。單機架功率密度3kW左右,逐步向6kW乃至10kW以上邁進(jìn),這對配電和制冷提出了越來(lái)越大的挑戰。

       相關(guān)政策更嚴格

      工業(yè)和信息部在《工業(yè)節能“二二五”規劃》提出,到2015年,數據中心PUE值需下降8%。國家發(fā)改委等組織的云計算示范工程要求示范工程建設的數據中心PUE要達到1.5以下。

      社會(huì )責任

      數據中心的能耗約占全球二氧化碳排放量的2%,其日益增長(cháng)的能耗及二氧化碳排放量已成為企業(yè)無(wú)法逃避的社會(huì )責任。

      對于以上的種種挑戰,數據中心對單位bit能耗較低的綠色數據中心的渴求,也越來(lái)越迫切。本文不討論通過(guò)虛擬技術(shù)給數據中心帶來(lái)的效率提升和能耗降低,只討論通過(guò)基礎設施的改進(jìn)、新材料、新技術(shù)應用對數據中心帶來(lái)的節能效果。

      如何建設綠色數據中心

      依據The Green Grid對綠色數據中心的定義,PUE小于1.6是其標志之一,理想目標是1.5以下。綠色數據中心是當前數據中心發(fā)展到瓶頸后的必然要求,也是社會(huì )生產(chǎn)力提高的要求。綠色數據中心的建設涉及選址、規劃、設計、驗證等多個(gè)環(huán)節,只有整體統籌考慮,才能建設一座真正的綠色數據中心。

      在數據中心選址上,除去地震、火山等不可抗因素區域外,客觀(guān)上優(yōu)先選擇能源豐沛、可較多利用自然冷源、傳輸資源充足、交通便利的地區。

      在規劃、設計上,對于數據中心整體建筑,建議多采用節能環(huán)保材料,有效減少數據中心外部的熱傳導和輻射;對于機架功率密度,建議采取6kW或者10kW及以上,有效節約機房面積,減少維護空間;對于配電系統建議優(yōu)先采用模塊化UPS、高壓直流系統或飛輪系統,這幾種配電系統,系統可靠性高,性能較傳統UPS有較大提升;對于制冷系統,采用良好的氣流組織、提高進(jìn)回風(fēng)溫度、高效的制冷系統,如水平送風(fēng)式的列中制冷、冷水背板,空氣滿(mǎn)足要求時(shí),可以采用新風(fēng)系統。

      對于機房溫濕度,GB50174-2008要求溫度22-24℃,RH40-55%,而實(shí)際上服務(wù)器工作環(huán)境可以達到40℃,RH20-80%,建議根據ASHRAE-2010標準,放寬機房的溫濕度范圍,減少制冷和除濕的功耗;對于數據中心管理系統,建議采用具有聯(lián)動(dòng)功能的DCIM系統,通過(guò)內置的專(zhuān)家系統聯(lián)動(dòng)策略,能自動(dòng)化的運轉數據中心設施,高效節能。

      在節能效果驗證上,由于每座數據中心的需求都有其特殊性,任何規劃和設計都或多或少會(huì )有待改進(jìn)之處,通過(guò)驗證,我們能對項目前期的規劃和設計的不足之處做出合理的調整和改進(jìn),以達到項目建設的初衷。

      三大產(chǎn)品構建綠色數據中心

      對于綠色數據中心的建設,中興通訊提供三種產(chǎn)品系列,分別是集裝箱數據中心USapphire CDC、微模塊數據中心USapphire MDC、微云系統USapphire MINI,三種產(chǎn)品系列全部支持中興通訊iDCIM數據中心智能管理系統。

      其中CDC主要應用于無(wú)機房的環(huán)境、應急或短期環(huán)境,無(wú)需大規模土建,移動(dòng)性強;MDC主要應用于機房環(huán)境,適合大規模快速部署、彈性投入;MINI主要應用于機房或者辦公環(huán)境,提供單機柜級的較佳布局,以單機柜為單位,可以任意伸縮。MINI是機架級的整體解決方案,提供7-10KW的配電功率,采取風(fēng)扇背門(mén)制冷(風(fēng)扇出風(fēng)口斜向上),支持380/220VAC輸入或者240VDC輸入,內置240VDC轉12VDC的PSU,內置交換模塊和管理系統。

      對于采取集裝箱數據中心USapphire CDC的建設方式—

      在配電方面,可以采取動(dòng)力箱的形式,內置柴油發(fā)電機的高壓直流系統或者飛輪系統,與CDC的移動(dòng)性相配套;在制冷方面,可以采用冷水機組+列中制冷空調末端的方式,或者采取冷水機組+冷水背板的方式,其中冷水機組放置在可整體移動(dòng)的制冷箱內,同時(shí)對末端的冷凍水可以通過(guò)冷媒的形式替代,由于兩種制冷方式都采取類(lèi)似的水平送風(fēng)的方法,機柜上下的進(jìn)風(fēng)溫度一致,節省能耗。

      對于采取微模塊數據中心USapphire MDC的建設方式—

      在配電方面,采用模塊化UPS或者高壓直流系統,對于采用高壓直流系統,微模塊部署采取高壓直流系統內置于微模塊內部的方式,其中開(kāi)關(guān)電源柜輸出240VDC(標稱(chēng)),架頂式PSU提供12VDC輸出,同時(shí)內置電池系統;在制冷方面采用冷水機組+列中制冷空調末端的方式,水平送風(fēng)。冷熱通道封閉,通過(guò)列中空調末端進(jìn)行冷熱交換。

      對于采取微云系統USapphire MINI的建設方式—

      在配電方面,微云系統MINI支持高壓直流系統,電池統一放置在電池間和配電間的240VDC輸出并聯(lián),為微云系統配電;在制冷方面,微云系統MINI由于只有風(fēng)扇背門(mén)提供換熱,需要利用環(huán)境冷量制冷。對于多套微云MINI組成的機房,建議采取背對背放置,熱通道封閉的方式。可以采取冷水機組+精密空調的傳統制冷方式,或者采取新風(fēng)系統制冷。對于采取新風(fēng)制冷的方式,在微云系統MINI 27℃進(jìn)風(fēng)溫度的條件下,可以最大利用新風(fēng)等自然冷源,全年綜合PUE能達到1.2左右;同時(shí)建議采取機柜前上送風(fēng)的方式,提供大風(fēng)量的輸出。

    分享到: 收藏

    專(zhuān)題

    亚洲精品网站在线观看不卡无广告,国产a不卡片精品免费观看,欧美亚洲一区二区三区在线,国产一区二区三区日韩 渑池县| 静海县| 长兴县| 四平市| 探索| 莎车县| 越西县| 融水| 台中市| 茶陵县| 榕江县| 安义县| 温泉县| 和静县| 临泽县| 昭通市| 六安市| 永登县| 新民市| 绍兴县| 株洲市| 阿克苏市| 报价| 河曲县| 东兴市| 田阳县| 鄂伦春自治旗| 新和县| 汶上县| 海宁市| 体育| 永寿县| 德格县| 安陆市| 武平县| 三原县| 藁城市| 永年县| 安岳县| 甘肃省| 瓮安县| http://444 http://444 http://444 http://444 http://444 http://444