排憂解難:如何讓密集服務器機架冷卻下來?

責任編輯:editor008

2014-09-17 09:28:32

摘自:TT中國

隨著數據中心的深入發(fā)展,數據中心的服務器耗能問題也成為企業(yè)關注的焦點,數據中心中的某些服務器機架每年能耗可達800千瓦/機架,而且還會不斷增加。未來會怎樣發(fā)展?

隨著數據中心的深入發(fā)展,數據中心的服務器耗能問題也成為企業(yè)關注的焦點,數據中心中的某些服務器機架每年能耗可達800千瓦/機架,而且還會不斷增加。未來會怎樣發(fā)展?

數據中心密度在過去曾是世紀末日一般的話題,這也許可以解釋為什么許多IT組織仍然徘徊于4~6千瓦/機架的能耗密度。但電源與散熱管理已經準備向著大于10千瓦的服務器機架進行設計。

暴漲的處理器核心數與機架級刀片服務器設計讓機房空調(CRAC)和電力成本增加似乎是無法避免的。但高密度并不會像設計師擔心的那樣殺死服務器。虛擬化、高效節(jié)能硬件,主動冷卻抑制與更高的可接受運營溫度協同配合,將延緩并減少熱能消耗。

發(fā)熱是多大的問題?

與為每個工作負載配置一臺服務器不同,一臺中等配置的服務器,配合虛擬化管理程序可以支持10、20甚至更多工作負載。設施的機架空間可能因各種負載被虛擬化后而空閑出來。

同時,芯片由更高密度的晶體管級制造工藝以及更低時鐘速打造而成,因此設備更新時,處理器核心數的螺旋上升幾乎不會影響機架的能量消耗。

縮小規(guī)模,數據中心內已經有了更多能充分利用的服務器,因此需要的機架也減少了,這已經改變了我們如何應用冷卻的方式。與冷卻整個數據中心不同,利用宏觀的空氣處理策略,如熱/冷空氣通道實現空間中空氣對流,運營商實施抑制戰(zhàn)略,將經營面積縮小在幾個更小的空間,甚至一些機架中。利用行內或機架內部冷卻系統(tǒng)來處理這些發(fā)熱,甚至可以關掉機房空調(CRAC)。

此外,美國采暖、制冷與空調工程師學會(ASHRAE)組織亦建議提升有效服務器進風口溫度到80甚至90華氏度。

隨著這些能源管理的發(fā)展,不大可能出現熱點與冷卻不足的情況,通常來說都是設計不當或不良的設施改造造成的。

熱點與其他冷卻問題

即使使用最好的抑制策略與高效率冷卻系統(tǒng),機架中的服務器熱點任然會因為計算設備次優(yōu)選擇或放置而產生。

意外的障礙物或空氣流路偶然變化可能產生熱量。舉例來說,拆下服務器機架的護板,讓空氣流入機架計劃外的位置,會削弱流動到其他服務器的空氣,增加出口溫度。

大幅度增加服務器能耗,同樣會引起散熱問題。例如,用高級刀片服務器系統(tǒng)替換幾臺1U服務器,會極大提高機架的能源開銷,并且空氣流量不足會直接影響到刀片機的所有模塊組件。如果冷卻系統(tǒng)不是為這樣的服務器而設計,很可能經常出現熱點。

在增加服務區(qū)機架密度時,運營組織需要考慮投資數據中心基礎設施管理和其他系統(tǒng)管理工具,收集來自機架內熱傳感器所提供的數據并生成報告。它們可以發(fā)現超過發(fā)熱限制的情況并采取必要措施,如通知技術人員,自動調用工作負載遷移或關閉系統(tǒng),以防止設施過早失效。

當服務器機架規(guī)劃產生熱點時,IT團隊可以重新分配硬件。與填充單個機架不同,若空間允許,移動一半或一、二架設備到其他機架上,或關閉過熱的系統(tǒng)。

如果空間不足以進行重新設計,加入一些可移動、自帶空調并可在數據中心內使用的冷卻設備。如果機架使用緊湊型行內或機架內冷卻單元,設置溫度點可以比打開密閉單元,增加冷卻設備更有效的實現冷卻效果。

長期緩解策略

從長遠來看,突破性的技術能夠幫助熱量管理。

水冷式機架可以通機柜門或其他路徑傳輸冷卻水。水冷式機架能能夠解決大部分發(fā)熱問題——尤其當只靠低溫空氣和高溫空氣對流散熱不起作用時。

中浸沒式冷卻技術可以將服務器浸入充滿像礦物油,卻非導電、非腐蝕性冷卻物質的浴缸中。這種技術有望實現高效率、幾乎沒有噪聲以及接近零損耗的熱傳輸。

D1Net評論:

綜上所述,這些熱門技術選項更適合于新數據中心架構,而不是普通的技術周期更新。對于企業(yè)而言,如何讓密集服務器機架冷卻下來,需要選擇合適的技術,采用長期緩解策略只能治標不治本,需要找到根治之法。

鏈接已復制,快去分享吧

企業(yè)網版權所有?2010-2024 京ICP備09108050號-6京公網安備 11010502049343號