近日,全球范圍內因天氣過熱、散熱系統出現問題所導致的數據中心宕機事件已屢屢發生,在高溫的沖擊下,谷歌、甲骨文等科技巨頭的數據中心一度出現冷卻系統癱瘓,導致運行故障。
相關專業人士表示,“AI行業將會出現算力被散熱'卡脖子’的情況。” 巨頭入局,確定液冷方案
英偉達明確未來逐步切換液冷方案以適配HGX 平臺。Supermicro 推出適配英偉達 HGX H100 的液冷服務器方案。據 Supermicro 數據,使用液冷可以幫助 IDC 節省 40%的電力。目前單張 A100 功率達 400W,H100 達 700W,未來芯片制程難以提升的情況下,效能功耗比難以進步,單卡功率將只增不減,故而散熱將制約算力的發展。 液冷時代將至!
中國移動、中國電信和中國聯通6月發布的《電信運營商液冷技術白皮書》中指出,目標2025年50%以上數據中心項目應用液冷技術。英特爾近期推出浸沒式水冷散熱技術,解熱能力高達2000瓦,較現行AI服務器所需的700至800瓦增超一倍,并已接獲美國能源部訂單,預計未來三年內運用在美國能源部的數據中心。業內人士認為,隨著英特爾散熱技術突破,有望推動AI等高速運算應用的發展。液冷設備的應用有利于節約電力的使用,符合減碳節約市場趨勢。機構預計2025年我國液冷IDC市場規模將突破1200億元。 早在2021年11月份,國家發改委印發的《貫徹落實碳達峰碳中和目標要求 推動數據中心和5G等新型基礎設施綠色高質量發展實施方案》明確,“到2025年,新建大型、超大型數據中心PUE(電能利用效率)降到1.3以下,國家樞紐節點降至1.25以下。”2022年1月份,國家發改委同意啟動建設全國一體化算力網絡國家樞紐節點的系列復函中明確要求,國家算力東、西部樞紐節點數據中心PUE分別控制在1.25、1.2以下。 AI的盡頭是散熱
當電流通過電阻時,所消耗的電能會全部轉化為熱能,這種現象被稱為電流的熱效應,自計算機誕生以來,從業者們用盡辦法將電子器件的溫度控制在合理的范圍內。 國內散熱技術廠商廣州力及熱管理科技(NeoGene Tech)創始人陳振賢表示,到了明年,單顆高性能AI芯片的熱設計功耗將會突破1000W。 那么風冷式散熱對應的散熱極限是多少?國金證券研究所的一份報告指出,服務器2U空間下,250W大約是風冷的極限,4U以上空間風冷可以解到400W-600W。 在今年的AI服務器市場中,英偉達A100與A800的出貨量將可能會占據80%,而隨著下半年數據中心陸續導入熱設計功耗高達700W的H100芯片后,行業內既有的散熱技術可能都需要進行一次“推倒重建”。 相關個股: 鴻富瀚 301086 :
公司是一站式導熱散熱綜合解決方案提供商和服務商。目前公司的液冷產品主要應用于服務器,在服務器液冷散熱器利用泵使散熱管中的冷卻液循環并進行散熱,在散熱器上的吸熱部分產品(在液冷系統中稱之為吸熱盒) 用于服務器CPU及GPU上吸收熱量。 科華數據 002335 :
目前公司自主研發的液冷技術已運用在公司數據中心及儲能產品、解決方案中。領先的產品和技術是公司的長期核心競爭力,公司持續跟進客戶的技術產品需求,做好相關技術儲備,保持自身技術的領先性。 英特科技 301399 :公司產品包括液冷散熱器,直冷式液冷散熱器應用在大數據中心。
同星科技 301252 :公司液冷相關產品有應用于數據中心及液冷服務器。
液冷是AI算力賣水人,AI服務器需要更高功率的機柜,傳統的自然風冷方式幾乎很難完成為AI服務器散熱的重任,液冷散熱的方式成為“必選”。液冷將是AI算力發展的助推器。 |
|
來自: 天道酬勤tah926 > 《財經》