算力狂飆,能耗飆升
智算中心的“綠色革命”已經打響
當算力引擎全速運轉
數據中心的能耗正步步攀升
在性能與能效的賽跑中
戴爾科技用軟硬協同與智能冷卻
給出了一份面向未來的答卷
當前,以人工智能、云計算、大數據為核心驅動的新一代信息技術革命,正以壓倒性態勢重塑全球產業格局。
這場變革在加速各行業數智化轉型進程的同時,直接催生了算力需求的快速攀升,尤其是對智能算力的需求呈現出“爆發式”增長態勢。
中國信通院發布的《先進計算暨算力發展指數藍皮書(2024)》顯示,過去幾年,我國通用數據中心與智算中心持續加快部署:
2023年,國內基礎設施算力規模高達230 EFlops,位居全球第二;在用數據中心機架規模突破80萬標準機架,全國累計建設的智算中心數量達60個;預計未來3年,我國算力規模年均增速將達45%,算力需求強勁增長勢頭有望長期延續。
這也意味著,數據中心行業在保持高速增長的同時,也將長期面臨高能耗、高碳排放以及基礎設施成本持續攀升的多重挑戰。
IDC的相關報告也進一步印證了這一判斷,未來18個月內,本地/托管型智算中心及遠程邊緣位置的智算服務器與存儲硬件投資,將占數據中心總投資規模的29%。
尤為關鍵的是,相較于傳統CPU架構,支撐智算工作負載的GPU平均能耗達到CPU的10至15倍;預計到2027年,全球數據中心用電量將占全球總用電量的2.5%,并以22.6%的復合年增長率持續增長。
面對這一趨勢,數據中心既要打造具備彈性擴展能力的設施,以應對不斷增長的算力需求,又要實現算力資源的智能調度與綠色低碳發展,唯有如此方能構筑支撐萬億級數字經濟體量的算力底座,筑牢數字經濟發展的基石。
在此背景下,作為全球科技領軍企業,戴爾科技也積極通過技術創新呼應當前數據中心加速走向“綠色低碳”發展的新趨勢。
不僅通過服務器組件優化與平臺架構創新實現能效比最大化,更推出覆蓋多場景的智能冷卻解決方案,在幫助行業客戶顯著降低運營成本、助力節能減排的同時,更為構建未來綠色低碳的數據中心探索出一條創新實踐之路,其價值可謂“不止于眼下,更關乎未來”。
智算時代,數據中心
節能減排面臨全新挑戰
過去十余年,通算中心(傳統數據中心)作為云計算的核心基礎設施,經歷了快速發展的黃金期。
然而,隨著人工智能技術的突破性進展,智能技術在醫療、金融、制造業、零售業以及交通運輸等行業產生了廣泛的應用需求,由此智算中心(AIDC)應運而生,同時其規模和處理能力也出現了指數級的增長,通算中心走向智算中心已成為未來升級發展的必然趨勢。
但與此同時,智算需求的不斷增長,對數據中心的節能減排和綠色低碳也帶來了更大的挑戰和壓力,具體來看:
一是,從芯片與機柜的能效躍遷看,傳統數據中心架構中,CPU熱設計功率(TDP)長期維持平穩演進,當前頂級CPU單顆功耗約500W量級,但進入智算時代后,為支撐千億參數級大模型訓練的算力密度需求,行業加速構建超大規模GPU集群,單顆GPU芯片功耗已突破1400W,較傳統CPU實現顯著提升。
而在機柜層面,傳統數據中心功率密度普遍處于5-10kW區間,依托風冷技術即可實現有效熱管理,但以NVIDIA GB200 NVL72為代表的超密計算系統,其單機柜峰值功耗已達136kW,遠超風冷技術熱密度臨界點(約40kW/rack),這對數據中心能耗管理與熱管理方案帶來根本性挑戰。
二是,從散熱與架構設計的革新看,隨著智算中心功耗特性的轉變,也正驅動新型散熱方案技術的不斷創新迭代。例如,在PCIe GPU領域,風冷散熱功率邊界持續拓展,推動服務器架構向4U形態升級,而當GPU熱設計功率突破超高性能閾值時,直接液冷(DLC)技術也將成為必要選擇。
與此同時,SXM/OAM模塊功耗同樣也已逼近純風冷物理極限,亟需引入芯片級的液冷技術,這也會將促使傳統8卡并行配置向多節點縱向擴展架構轉型。
此外,基于ORv3標準的新一代機架設計在此趨勢下也展現出了顯著優勢,其通過資源池化與熱管理優化,可實現更高密度的算力部署與更優能效比,能夠為下一代智能訓練集群提供了更具擴展性的基礎設施方案。
三是,從用電成本與政策約束的壓力看,隨著單機柜功耗的高密度化趨勢,智算中心的工作負載與電力需求規模也將遠超傳統數據中心,這也導致能源消耗進一步攀升。
數據顯示,2022年我國數據中心耗電量達2700億kWh,約占全國總用電量的3%;預計到2030年,這一數字將突破4000億+kWh,而電費成本占比也將高達數據中心運營成本的70%。
更為關鍵的是,為實現“雙碳”目標,國家對數據中心的節能減排要求也持續加碼。如《數據中心綠色低碳發展專項行動計劃》就明確提出,到2025年底,新建及改擴建大型/超大型數據中心PUE需降至1.25以內,國家樞紐節點數據中心項目PUE不得高于1.2。
也正因此,推動數據中心實現節能減排、走向綠色低碳轉型已不僅僅是大勢所趨,更是亟待解決的現實挑戰。
軟硬協同,構建數據中心
全方位能效管理體系
也正是洞察到這種變化趨勢,戴爾科技采用“軟硬協同”的創新策略,通過硬件設計革新與智能軟件系統的深度整合,在數據中心基礎設施和服務器領域構建了一套系統化、多層次的全方位能效管理體系。
該體系覆蓋從組件到整體設施的能耗管理與節能,具體來看:
首先,在服務器的組件與平臺層面,戴爾科技提供高效的服務器系統氣流與部件冷卻優化設計方案。
以電源優化和氣流平衡技術領域為例,其通過重新布局將電源置于機箱兩側,構建更均衡的熱空氣通道,有效穩定整體機箱溫度;同時采用變速風扇技術,依據不同部件配置動態調節風扇轉速。
在部件優化設計上,針對GPU服務器采用高速網卡前置設計以避免網卡過熱,并通過多矢量散熱技術為不同部件精準匹配風量與散熱方案,此外還引入冷板和浸沒式高級冷卻技術,這些優化設計共同為服務器平臺實現了最大化的能效比。
其次,在軟件層面,戴爾科技以OpenManage和Dell AIOps為核心,構建了覆蓋全生命周期的能效管理框架。
以OpenManage系統管理解決方案為例,其集成iDRAC遠程管理模塊與OME控制臺構成基礎架構層,而作為OME智能插件的電源管理器則通過四大核心功能實現精細化能源管控:
• 實時追蹤服務器熱健康狀態與功率消耗并建立風險預警機制;
• 基于策略的電力調控系統可在電價波動時自動優化資源配置;
• 通過最大化利用現有機架電力基礎設施容量,實現跨服務器組的動態負載均衡,該軟件已實現對主流第三方服務器的兼容支持。
而Dell AIOps作為新一代數據中心智能運維平臺,則將能效管理提升至更高維度,這一SaaS應用通過三個維度助力數據中心客戶構建可持續決策體系:
1.基于IEA國家排放因子與定制化PUE模型,提供精確到系統級別的碳排放可視化;
2.整合設備健康度、安全態勢、容量規劃等多維數據,生成最優工作負載整合方案;
3.此外,采用機器學習算法建立能源使用基準模型,實現季節性異常檢測與長期趨勢預測。
最后,在基礎架構的設計與應用層面,戴爾科技同樣通過創新技術優化能耗管理。
例如,戴爾科技采用數據縮減技術,在企業級存儲產品PowerStore上實現5:1的數據壓縮比,PowerProtect Data Domain上則是更達到驚人的65:1重復刪除壓縮比,都可以大幅減少磁盤空間的占用,從而減少電力和減少碳排放。
而在數據架構技術方面,戴爾科技也可以將之前的存算一體的架構,轉換為存算分離的架構。
比如,廣泛使用的Hadoop之前采用服務器內置硬盤來實現存儲,而通過采用戴爾PowerScale將存儲分離出來,使得Hadoop的存儲空間利用率從之前的30%,提升到80%,大幅度地提升了存儲空間的利用率,減少了存儲磁盤的數量,提升了能效比。
不難看出,這種“軟硬協同”的創新模式使戴爾科技在數據中心能效優化領域形成了完整的技術閉環。
從硬件底層的散熱設計優化,到存儲層的數據縮減技術創新,再到軟件層的智能預測與自動化控制,最終通過AIOps實現戰略層面的可持續性決策支持。
這一多層次、全棧式的能效管理方案,不但提升了數據中心基礎設施能效比的同時,也顯著降低了總體擁有成本(TCO),更為企業構建綠色數據中心提供了可參考和可借鑒的落地途徑。
智能冷卻,推動下一代
智算數據中心可持續發展
同樣,在當前數據中心邁向液冷時代的轉折點上,戴爾科技也“與時俱進”的打造了一套智能冷卻解決方案,由此不僅為智算中心帶來了更加高效和豐富的智能冷卻產品線,更為中國用戶的數據中心綠色升級提供了“最優解”。
據了解,戴爾科技智能冷卻解決方案為下一代智算數據中心提供了三種差異化冷卻方案,涵蓋風冷、冷板式液冷及浸沒式液冷三大技術路徑,能夠全方位滿足不同場景的散熱需求。
其中,在風冷技術領域,戴爾科技持續突破技術邊界,通過多矢量散熱技術與AI算法深度融合,實現對服務器內部組件發熱狀況的智能識別與動態分析。該技術可針對不同區域及部件精準調節風量,確保最佳冷卻效果,尤其在戴爾新一代PowerEdge服務器中更成功實現對高TDP新一代CPU的高效散熱。
與此同時,針對高功耗服務器,戴爾科技還研發了高性能轉速的新型風扇,進一步強化散熱能力,在保障設備穩定運行的同時,最大限度降低對現有風冷數據中心基礎設施的改造需求,充分保護客戶既有投資。
而在液冷技術領域,戴爾科技更是擁有超過15年的技術沉淀與商業化經驗。可以看到,自2010年率先實現單相浸沒式液冷服務器冷卻的商業化部署以來,戴爾科技就持續引領行業創新:
•在戴爾PowerEdge 第14代服務器時代,其C6400系列服務器大規模應用DLC冷板式液冷方案,全球部署規模突破萬臺;
•戴爾PowerEdge 15代服務器則將支持冷板式液冷的型號增至7個;
•戴爾PowerEdge 16代服務器進一步擴展至12個型號;
•而在最新的戴爾PowerEdge 第17代服務器則延續技術傳承,持續完善冷板式液冷產品矩陣。
在這背后,也正是戴爾科技在多元化熱量捕獲技術體系的持續創新的體現,基于冷板冷卻(DLC)、列間空調、水冷背門(RDHx)及冷熱風道隔離技術,可靈活匹配不同機架熱密度與能效需求。
例如,列間空調與機架密封結合實現100%熱量捕獲;而水冷背門(RDHx)在捕獲全部熱量的同時調節空間空氣,支持最高32°C進水溫度,較傳統方案提升冷水機組能效;冷板冷卻技術通過降低服務器風扇功耗進一步提升系統能效。
不僅如此,在今年2025戴爾科技全球峰會(DTW)上,戴爾更是全球獨家首發封閉式后門熱交換器(eRDHx)系統及集成機架控制器(IRC),重新定義高密度散熱標準,該系統可100%捕獲服務器熱量,支持單機柜80kW溫水冷卻,相較標準后門熱交換器節能達60%,使AI/HPC機架密度提升16%且無需增加功耗。
同時,其獨立氣流系統兼容32-36度溫水,熱插拔風扇設計確保維護便捷性,集成機架控制器與OpenManage Enterprise深度整合,可提供全機架級實時熱監控、泄漏檢測及統一組件控制,最大化提升數據中心可靠性與可持續性。
而在場景化解決方案適配方面,戴爾智能冷卻解決方案也一直堅持以客戶需求為核心,提供場景化定制服務,比如高算力場景(如智算、超算),針對高TDP計算芯片,戴爾科技通過靈活組合風冷與液冷技術,可保障極端負載下的穩定散熱。
在綠色節能場景,戴爾科技則通過冷板式與浸沒式液冷技術,有效降低PUE,助力客戶達成ESG目標及政策合規要求;而在一些特殊環境場景(如分支辦公室),戴爾科技的浸沒式和冷板液冷方案都可有效降低噪音,完美適配對噪音敏感的應用場景。
值得關注的是,戴爾科技除了可以提供成熟可靠的場景化液體冷卻解決方,以及一體化工廠預裝的整機柜交付的冷板服務器組合,減少現場工程的復雜度之外,同樣也可以結合戴爾科技的合作伙伴為客戶定制化交付不同的液冷方案,滿足不同應用場景和客戶訴求的液冷解決方案。
總的來說,相較于業界,戴爾科技的智能冷卻解決方案主要有三大優勢:
• 一是技術前瞻性,其風冷技術持續演進,無縫適配最新計算芯片,無需改造現有基礎設施;
• 其二,全場景覆蓋,融合風冷、冷板式液冷、浸沒式液冷及創新熱量捕獲技術,精準匹配智算中心高密度、高功耗發展趨勢,助力PUE優化與綠色節能;
• 其三,生態與服務保障,依托戴爾科技全球供應鏈與服務體系,可提供從一體化整機柜交付到定制化液冷方案的全周期支持,確保客戶無憂部署。
也正因此,自2023年以來,戴爾科技已聯手合作伙伴GRC在全球范圍內實現了大規模商用部署浸沒液冷方案;而在中國, 戴爾科技通過聯合合作伙伴綠色云圖,也在國內多所大學成功部署了較大規模的浸沒液冷和冷板液冷的典型案例。
結 語
面向未來,戴爾科技將通過持續的技術創新與場景深耕,助力行業客戶構建高效、可持續的下一代數據中心,為不斷暴增的智算中心需求提供更為堅實支撐,持續推動綠色數據中心的能效革命。