

突然,有機柜發(fā)出了更響亮的嗡嗡聲,這是服務(wù)器的風(fēng)扇正在全速運轉。
隨后,傳來(lái)了告警聲,這是服務(wù)器沒(méi)有得到足夠的制冷而發(fā)出的求救信號。
不一會(huì ),最糟糕的事情發(fā)生了,服務(wù)器過(guò)熱保護,自動(dòng)關(guān)閉運行,這或將導致大量的用戶(hù)無(wú)法訪(fǎng)問(wèn)服務(wù)器。
與家用空調不同,機房設備更需高效、可靠的呵護。一個(gè)數據中心動(dòng)輒數千臺服務(wù)器,大量的設備所消耗的電能幾乎都會(huì )變成廢熱,為了讓每臺設備保持在恒定的溫度下正常運轉,數據中心配置了如冷水機組、冷卻塔、末端空調等設備的大型的制冷系統來(lái)吸入熱空氣、排出冷空氣。
可你知道嗎?為了排放廢熱,這些制冷系統是數據中心的耗電大戶(hù),降低數據中心的能耗(降低PUE值)一直是業(yè)界關(guān)注的焦點(diǎn)。

一個(gè)大型數據中心的電費占據了約70%的運營(yíng)成本,全球數據中心每年電力消耗相當于8個(gè)三峽水電站的發(fā)電量。例如PUE為2的數據中心,在總能耗中,IT設備能耗占了一半,制冷系統能耗占約30%,這就是PUE居高不下的原因。
近年來(lái),隨著(zhù)移動(dòng)互聯(lián)網(wǎng)、云計算技術(shù)的蓬勃發(fā)展,數據中心已成為現代信息生活不可或缺的ICT基礎設施。面向5G萬(wàn)物互聯(lián)時(shí)代,數據流量急劇增長(cháng),數據中心必將進(jìn)一步向大型化和高密化發(fā)展。
但海量數據處理產(chǎn)生的熱量隨之增加,為保障設備穩定運行,制冷系統能耗也將持續走高。
如何讓數據中心更節能、更高效?業(yè)界為此絞盡了腦汁…
比如,Facebook在瑞典北部,靠近北極圈的地方建數據中心,以利用自然低溫為數據中心散熱,降低能耗。

微軟在蘇格蘭奧克尼群島海岸附近建“水下數據中心”,利用寒冷的海水散熱。

Facebook和微軟將數據中心建在北極和海下,目的是通過(guò)“免費”獲取冷源的自然冷卻技術(shù)來(lái)降低能耗。
但是, Facebook和微軟采用的自然環(huán)境冷卻方式受地域限制,你不可能把所有數據中心都搬到遙遠的北極或沉到海底,未來(lái)5G時(shí)代的低時(shí)延應用更需就近部署。
所以,我們還得把目光轉回來(lái),看看如何降低制冷系統本身的能耗。總的來(lái)講,當下制冷系統向高效化和智能化趨勢發(fā)展,方法可謂是“軟硬兼施”,以獲得更低的PUE。
大型數據中心一般采用冷凍水制冷系統。制冷系統主要由冷水機組、冷卻塔、水泵和末端空調等組成,通常冷水機組、末端及水系統組件是能耗關(guān)注的重點(diǎn)。

過(guò)去以來(lái),為了提升制冷系統能效,在冷源側,從風(fēng)冷向水冷、自然冷卻發(fā)展;在空調末端側,從房間級制冷發(fā)展到行級制冷、頂置制冷和機柜級制冷,以更加靠近熱源,減少冷媒輸送能耗,提升冷卻效率。

隨后,由于數據中心內設備眾多,設備發(fā)熱量動(dòng)態(tài)變化,智能化的制冷系統開(kāi)始應用于數據中心,使能根據變化隨時(shí)隨地的提供動(dòng)態(tài)調節制冷方案,比如變頻空調、變容量壓縮機、風(fēng)量智能調節技術(shù)等。
但是,由于傳統制冷系統中精密空調、水泵、冷水機組、冷卻塔來(lái)源不同廠(chǎng)家,各自獨立運行,少有對整個(gè)制冷系統進(jìn)行系統性的效率優(yōu)化。
要系統性的提升制冷效率,需要實(shí)現從冷凍站、空調末端到IT負載的端到端協(xié)同管理和精細控制來(lái)智能化降低制冷系統的功耗。
最近在HUAWEI CONNECT 2018上,華為發(fā)布了基于A(yíng)I的iCooling解決方案,正是這種智能化方向的代表。
基于A(yíng)I的iCooling數據中心能效優(yōu)化解決方案,針對數據中心制冷效率提升瓶頸,通過(guò)機器深度學(xué)習,對大量的歷史數據進(jìn)行業(yè)務(wù)分析,探索影響能耗的關(guān)鍵因素,獲取PUE的預測模型。基于PUE的預測模型,獲取與PUE敏感的特征值,利用特征值,進(jìn)行業(yè)務(wù)訓練,輸出業(yè)務(wù)的預測模型。最后利用系統可調整的參數作為輸入,將PUE預測模型、業(yè)務(wù)預測模型作為約束,利用尋優(yōu)算法,獲取調優(yōu)參數組,下發(fā)到控制系統,實(shí)現制冷系統的控制。最終通過(guò)規范化的實(shí)踐引導和目標導向評測,不斷調整優(yōu)化,獲取均衡PUE。

在華為廊坊數據中心,實(shí)測環(huán)境為1500柜,單柜密度4kW/柜,43%IT負載率,2N供電系統,N+1冷凍水系統,采用iCooling智能溫控技術(shù)后,冷凍站總能耗降低325.6kW,冷凍站COP提升8.2,全年P(guān)UE由1.42降為1.304,每年可節省電費372萬(wàn)元,實(shí)現了從“制冷”向“智冷”轉變,為未來(lái)降低數據中心能耗奠定了新方向。

其實(shí),試圖用AI優(yōu)化制冷的并不只有華為,Google已宣布通過(guò)旗下DeepMind公司的AI技術(shù)來(lái)降低數據中心能耗,其原理與iCooling類(lèi)似,在制冷系統中安裝數千個(gè)傳感器收集并發(fā)送數據到深度神經(jīng)網(wǎng)絡(luò ),再作出最優(yōu)決策建議。
不過(guò),Google開(kāi)發(fā)的技術(shù)目前只針對自己的數據中心,未對外,不具有普適性。而華為iCooling作為對外發(fā)布的解決方案,為各家數據中心提供了最優(yōu)解決方案。
基于軟件化的AI解決方案是趨勢,同樣,在硬件效率的提升上業(yè)界也一直不遺余力。
各廠(chǎng)家在硬件上常選用更節能的壓縮機和風(fēng)機來(lái)提升空調末端效率,并有持續的投入,使得在這兩部分上技術(shù)和性能都差異不大。但加濕系統的能耗往往容易被忽視。
通信機房要求濕度必須控制在50%±5%。以北方數據中心為例,空調系統全年耗電約有2%~3%的比例消耗在加濕系統上;如果數據中心制冷系統年耗電在1000萬(wàn)kwh,那么10年生命周期將有200~300萬(wàn)kwh的電費消耗在加濕系統上。
因此,數據中心除了在不間斷使用的的制冷系統上進(jìn)行節能減排措施外,也需要在加濕等溫濕度及環(huán)境控制輔助耗電單元上進(jìn)行優(yōu)化設計,進(jìn)一步降低日趨膨脹的數據中心能源消耗。
目前常用的內置式加濕有:紅外加濕、電極加濕、濕膜加濕。
濕膜加濕的大致原理是,通過(guò)循環(huán)水泵將水箱中的水送到濕膜頂部布水器,水向下滲透,均勻地濕潤濕膜表面,通過(guò)水蒸發(fā)增加空氣的濕度。整個(gè)過(guò)程不需要耗費額外功率。
與紅外加濕和電極加濕相比,濕膜加濕不必將熱量轉化為水蒸氣,在改變空氣濕度的同時(shí)還能降低溫度,可大幅降低功耗,且維護方便,無(wú)需額外水處理設備。

濕膜加濕可以多節能?讓我們來(lái)看一組統計數據。

在目前內置式加濕中,華為采用獨有的濕膜加濕技術(shù),相比傳統的加濕方式節能95%。
iCooling、濕膜加濕等技術(shù),說(shuō)明了華為在數據中心溫控領(lǐng)域也是佼佼者。這與華為在該領(lǐng)域的持續投入有關(guān):
華為于2008年成立網(wǎng)絡(luò )能源產(chǎn)品線(xiàn),開(kāi)始數據中心溫控產(chǎn)品研發(fā)。十年來(lái),華為溫控產(chǎn)品線(xiàn)每年將銷(xiāo)售收入的15%投入研發(fā),已在全球設立三大空調研發(fā)中心,分別位于中國西安、深圳以及德國紐倫堡,現有溫控研發(fā)工程師超過(guò)150人,提供全系列的自研數據中心溫控解決方案。
根據ICTresearch的研報, 2016年和2017年華為行級溫控在中國市場(chǎng)份額蟬聯(lián)第一。

數據來(lái)源:ICTresearch 2018
不久前,中國移動(dòng)2018年山西等五省新型空調末端系統集成補充采購項目結果揭曉,華為以33.32%的份額中標。
不斷的研發(fā)投入和技術(shù)創(chuàng )新以降低數據中心能耗,是華為的堅持,也是行業(yè)一致的追求,相信隨著(zhù)技術(shù)的發(fā)展和成熟,華為將會(huì )帶來(lái)更多的驚喜。
