- +1
歐洲云企業測試“冷箱式服務器刀片”系統
A1 Digital 正在測試一項用于高能耗 AI 服務器的液冷技術,據稱該技術可節省 50% 的制冷能耗,完全無需使用空調系統。
A1 Digital 旗下的云服務和托管提供商 Exoscale 正在其維也納數據中心測試由奧地利公司 Diggers 開發的直接液冷 (DLC) 系統的概念驗證 (POC)。
該系統將服務器刀片置于密封的冷箱中,不存在空氣進出,并通過帶有微通道的冷板直接連接到 GPU 和 CPU 上進行液體循環。據介紹,這種設置消除了冷通道的需求,因此聲稱可以節省 50% 的能源成本,實現約 1.05 的 PUE。
PUE(電源使用效率)是衡量數據中心基礎設施能源效率的指標,理想值為 1.0。根據 Uptime Institute 的數據,行業平均水平約為 1.56。
Exoscale 首席運營官 Antoine Coetsier 告訴我們,數據中心的設備正變得越來越密集且耗能更高,而電力成本也在上升。同時,像他們這樣的公司面臨著可持續發展的壓力,特別是在歐盟《企業可持續發展報告指令》(CSRD) 現已生效的情況下。
"每一代產品,不僅是 GPU,現在連 CPU 也在消耗更多能源。目前這一代僅 CPU 就需要 350 瓦特。我們從三月底開始部署的設備將達到每個 CPU 500 瓦特。"
這推動了制冷技術的演進,從對整個數據機房進行空調制冷,發展到服務器機架之間的冷通道,現在則采用這種類似冰箱隔熱的冷箱內液冷方案。
Diggers CEO Martin Schechtner 表示這是該公司第四代設計技術。
"這是一種冷箱方案,服務器機架內部沒有空氣進出。只有水的進出、電源供應和網絡連接,這使得操作變得最簡單,"他告訴我們。
此前,Diggers 銷售浸沒式制冷解決方案,但那通常使用礦物油,這意味著"你要在極其重要的基礎設施中引入大量易燃負載,"Schechtner 說道,同時維護也更加困難。
采用冷箱內服務器刀片的 DLC 技術,"我們基本上達到了與浸沒式制冷相同的技術效果,但無需使用礦物油,也沒有維護問題。一切都易于更換。你可以更換內存和硬盤,不會有油滴落的問題,"他解釋道。
Diggers 的冷板采用鋁而非銅制成,以避免水造成的腐蝕問題。該公司聲稱其微通道設計能夠以提高熱傳遞效率的方式分配液體。一塊冷板可以冷卻兩個 GPU,每側各一個。在 POC 中,每個冷箱包含四個垂直安裝的刀片。
"所有設備都被封裝在內,管道很少。雖然還是有一些管道,但比你之前見過的任何方案,甚至是大型 OEM 的方案都要少得多,這也是系統的優勢之一,"Coetsier 說。
維也納數據中心正在試驗的部署總共包含八個箱體,計算能力約為 80 千瓦。
"規模不大因為這是 POC。我們將逐步擴大規模,但它有潛力容納目前最強大的 GPU,"Coetsier 告訴我們。
根據 Schechtner 的說法,從冷箱流出的水溫通常在 50°C,"這個溫度水平可以直接在現場使用,或者輸送到區域供熱網絡,讓熱泵能夠高效工作。"
Coetsier 表示,如果 POC 進展順利,Exoscale 計劃將這項制冷技術推廣到維也納數據中心以外的其他地點,并應用于不同的 CPU 和 GPU 組合,"因為我們是云服務提供商,我們的工作是提供客戶需要并愿意購買的各種服務。"
本文為澎湃號作者或機構在澎湃新聞上傳并發布,僅代表該作者或機構觀點,不代表澎湃新聞的觀點或立場,澎湃新聞僅提供信息發布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司