久久精品精选,精品九九视频,www久久只有这里有精品,亚洲熟女乱色综合一区
    分享

    誰能卡住英偉達的脖子?

     你在我在觀自在 2023-07-01 發(fā)布于江蘇
    圖片
    出品 | 虎嗅科技組
    作者 | 丸都山
    編輯 | 陳伊凡
    生成式AI的風口下,一些行業(yè)正在“悶聲發(fā)大財”。
    從今年2月開始,中國臺灣廠商AVC和雙鴻(AURAS)股價一路飆升,在端午假期前的最后一個交易日,兩家公司的股價較4個月前均實現翻倍,分別收報249.5新臺幣(約合58.1元人民幣)及292.5新臺幣(約合68.1人民幣)。
    如果對照芯片巨頭英偉達(NVEDIA)近期股價走勢,會發(fā)現三者之間存在著驚人的一致性——這家芯片巨頭公司同樣在這4個月內時間實現了股價翻倍。
    這顯然不是巧合。
    實際上,上述兩家位于中國臺灣地區(qū)的公司,或多或少與英偉達有關,確切地說是與生成式AI相關。AVC是全球最大散熱模組廠商,也是英偉達AI服務器系統(tǒng)DGX H100目前的風冷散熱系統(tǒng)供應商,雙鴻則是Supermicro(超微電腦)服務器散熱系統(tǒng)的供應商。
    散熱,這個過去不被人們重點關注的產業(yè),正由于AI帶來的數據量和計算量的爆發(fā)增長逐漸從幕后走向臺前,多位從業(yè)人士向虎嗅表達了這樣一個觀點:“今明兩年,AI行業(yè)中可能會出現算力被散熱'卡脖子’的情況。”
    6月15日,在AMD發(fā)布APU(加速處理器)MI 300系列后,AMD股價由于受到“缺少大客戶”的質疑下跌3.6%,但就在同一日,AVC與雙鴻的股價卻因AI芯片出現新玩家的利好應聲上漲5.8%和3.6%。
    作為一個與計算機科學共同成長起來的產業(yè),散熱模組廠商們經歷了多次電子信息革命,但當下AI的爆發(fā),似乎才真正讓這個行業(yè)真實現了“翻身”。
    AI的盡頭是散熱?
    當電流通過電阻時,所消耗的電能會全部轉化為熱能,這種現象被稱為電流的熱效應,自計算機誕生以來,從業(yè)者們用盡辦法將電子器件的溫度控制在合理的范圍內。
    當然,早期的計算機功耗較低,而且整機體積較大,因此不需要單獨設計系統(tǒng)級的散熱解決方案,通常做法就是在計算機背部放置個簡易的風扇,以將熱流導出。
    1989年,英特爾發(fā)布了80486處理器,人類第一次實現了在微處理器中集成百萬級晶體管,這枚芯片的功耗也水漲船高,在芯片出廠時,英特爾為其配備了一組鋁制的散熱片,再配合機箱上的風扇完成整體散熱。
    以今天的視角來看,這種方案還是很簡陋,但它勾勒出了散熱設計最底層的原理:先導熱,再散熱。簡單地來說,導熱就是將熱量在介質中傳送,散熱就是讓熱量盡可能快地從介質向外界散發(fā)。
    傳統(tǒng)的服務器散熱方案與計算機散熱原理大致相同,區(qū)別在于服務器所使用的算力芯片由于能耗較高,往往將芯片級散熱系統(tǒng)作為重點,通常來說就是將芯片熱量通過熱管、均熱片等傳導到多褶結構的散熱鰭片上,再通過風扇進行主動散熱。
    圖片
    傳統(tǒng)服務器散熱器,與臺式機基本一致。圖片來源:中關村在線
    不過,這種風冷式散熱方案在當前AI服務器上的表現已經明顯力不從心。
    原因在于高性能AI芯片的功耗在隨著算力同步大幅提升。10年前市面上能買到的最頂級的數據中心GPU是英偉達K40,其熱設計功耗(TDP)為235W,2020年英偉達發(fā)布A100時,熱設計功耗接近400W,到了最新的H100芯片,熱設計功耗直接飆升到700W。
    國內散熱技術廠商廣州力及熱管理科技(NeoGene Tech)創(chuàng)始人陳振賢向虎嗅表示,到了明年,單顆高性能AI芯片的熱設計功耗將會突破1000W。
    那么風冷式散熱對應的散熱極限是多少?國金證券研究所的一份報告指出,服務器2U空間下,250W大約是風冷的極限,4U以上空間風冷可以解到400W-600W。
    這里需要普及下“U”的概念,這是美國電子工業(yè)協(xié)會制訂的標準化尺寸,1U服務器的寬度為48.26厘米(19英寸),高度為4.445厘米(1.75英寸)。通常情況下,標準服務器機柜的高度為42U,但這并不意味可以容納42枚1U服務器,因為過大的密度會增加散熱負擔。
    而如果使用英偉達H100芯片的話,在使用風冷散熱模組方案的情況下,就需要用到4U的機柜。
    因此,為了提高單一機柜的功率密度,數據中心近些年開始普遍使用液冷方案。其大致可以分為兩種技術路徑:冷板式(Cold Plate)與浸沒式(Immersion),前者是通過冷板將發(fā)熱器件的熱量間接傳遞給封閉在循環(huán)管路中的冷卻液體,后者則直接將發(fā)熱器件以及電路板整體直接置于液體中。與空氣介質相比,液體的導熱率更高、比熱容更大、吸熱能力也更強。
    圖片
    1U 2x雙路節(jié)點服務器的冷板式散熱方案,圖片來源:@企業(yè)存儲技術
    另外在運營成本上,液冷散熱也有較大的優(yōu)勢。傳統(tǒng)風冷散熱將服務器芯片熱量吹到數據中心機房內,這要求機房空調溫度必須大幅降低,一位業(yè)內人士向虎嗅透露,臺積電的數據中心溫度常年維持在零度左右。而液冷散熱模組的設備雖然較為昂貴,但大多屬于一次性成本,后續(xù)的能耗成本可以大幅降低。
    但這并不意味著目前液冷散熱技術就是一種萬全之策,陳振賢指出,在現有要求降低PUE(指數據中心消耗的所有能源與IT負載消耗的能源的比值)的限制下,既有的冷板式及浸沒式液冷技術也都紛紛面臨著解熱極限的問題。
    中科創(chuàng)星董事總經理盧小保也向虎嗅表示,目前無論是風冷還是液冷散熱方案,都進入明顯的發(fā)展瓶頸期,未來熱管理相關技術可能會成為AI芯片性能釋放的決定性限制因素。
    破局點在哪里?
    盡管業(yè)內目前還沒有出現公認的“最佳解決方案”,但市場對于AI服務器的需求不會因此陷入停滯。
    第三方研究機構TrendForce發(fā)布的預測指出,2023年AI服務器(包含GPU、FPGA、ASIC等主芯片)出貨量將接近120萬臺,同比去年增長38.4%,而AI芯片今年出貨量將增長46%。
    有業(yè)內人士向虎嗅表示,在今年的AI服務器市場中,英偉達A100與A800的出貨量將可能會占據80%,而隨著下半年數據中心陸續(xù)導入熱設計功耗高達700W的H100芯片后,行業(yè)內既有的散熱技術可能都需要進行一次“推倒重建”。
    盧小保認為,傳統(tǒng)的風冷式散熱方案并不是完全沒有開發(fā)空間,但前提是導熱器件必須進行升級換代,比如引入環(huán)路熱管技術。
    目前芯片級風冷散熱模組中,導熱器件主要以熱管為主,它的主體是一根封閉、中空的金屬管,內部有少量工作介質(主要是純水)的毛細結構,運行時依靠介質蒸發(fā)吸收芯片熱量,再由風扇將熱量吹走。
    圖片
    熱管工作原理,圖片來源:antpedia
    而環(huán)路熱管在保留上述特性的同時,導熱能力增加幾倍,而且導熱距離更大,可以傳遞到一米以外甚至理論上可以傳導到十幾米以外,這是該技術在衛(wèi)星上已經實現的效果。
    “如果環(huán)路熱管能做到數米遠,就意味著可以直接將服務器芯片的熱量導出到數據中心外部,連機房溫度的問題都解決了”,盧小保指出。
    不過作為一種航天工程的衍生技術,要在地面環(huán)境下落地應用,技術難度極高,雖然學術界和工業(yè)界都有很多團隊在從事這項技術的研發(fā),但真正具備落地商用能力的極少。
    同樣,液冷散熱方案也具備升級迭代的潛力。比如結合將冷板與浸沒式散熱的技術特點相結合,在傳統(tǒng)的1U或2U機柜槽中接入冷板,再接入浸沒散熱用的單向冷卻液,以實現雙重冷卻循環(huán)。
    據外媒Electronics Weekly報道,前不久美國能源部(DOE)立項了一個名為COOLERCHIPS的研究計劃,?助英偉達5百萬美元開發(fā)此項混合液冷技術,利用兩相冷卻液作為冷板的內循環(huán),非導電冷卻液體則是被直接注入服務器中做循環(huán)。
    陳振賢表示,NeoGene Tech亦自主研發(fā)了一種更先進的具有三重液冷循環(huán)之服務器裝置技術,將具備更高功率芯片的散熱及散熱能力,而且無需價格昂貴的兩相冷卻液作為循環(huán),在運營成本上將更優(yōu)。
    此外,NeoGene Tech還基于冷板式液冷技術開發(fā)了一種被稱為牛勁冷泵(NeoGene Liquid Cooler)液冷散熱器產品,整體高度已經壓縮至24.5mm,可以滿足數據中心1U服務器機柜的超高密度布建需求。其最大特點是可通過內部三維蒸氣腔的功能設計,根據芯片功率及功率密度做出解熱及散熱的功能調整。
    陳振賢指出,1U的牛勁冷泵液冷散熱器已經可以服務TDP超過1000W的高算力芯片。
    圖片
    1U規(guī)格的牛勁冷泵液冷散熱產品,圖片來源:NeoGene Tech
    以上提到的技術方案,都是基于過去散熱模組的迭代,那么是否存在一種技術,可以直接在芯片上做文章?
    在今年3月,NeoGene Tech曾公開了一個針對高功率芯片封裝的散熱方案:直接將裸芯片和牛勁冷泵液冷循環(huán)系統(tǒng)封裝在一起工作。
    陳振賢向虎嗅表示,“在這個技術路徑下,散熱模組不再是芯片外部的獨立器件,它本身就是IC元件的一部分,可達到即插即用(Plug&Play)的目的”。
    這項散熱封裝技術若再搭配具有三重液冷循環(huán)之服務器裝置技術,能夠為數據中心省去所有的二級、三級散熱系統(tǒng),只需將自我浸沒式服務器插入機柜內, 再接入水管及非導電冷卻液管就可以直接使用。當然,該方案對先進封裝工藝有一定的要求。
    另一種直接在芯片上做散熱的技術,也與封裝工藝緊密結合,那就是Chiplet。
    簡單地來說,就是將一個單顆SoC芯片的功能拆分成眾多小芯片,然后運用先進封裝技術重組成一個龐大復雜的系統(tǒng)。從芯片散熱的角度來說,Chiplet不會使芯片整體功率降低,但在拆分后的表面積會增加,也就是說同等熱設計功率下,單位面積內熱流強度會降低。
    從這里也可以看出一個趨勢,那就是在AI芯片算力與能耗大幅提升的背景下,芯片散熱問題,或者說熱管理問題,已經不再是一個獨立的學科,而是更加趨近于系統(tǒng)性工程,未來AI芯片的天花板,或許真的取決于散熱技術的發(fā)展水平。

      本站是提供個人知識管理的網絡存儲空間,所有內容均由用戶發(fā)布,不代表本站觀點。請注意甄別內容中的聯系方式、誘導購買等信息,謹防詐騙。如發(fā)現有害或侵權內容,請點擊一鍵舉報。
      轉藏 分享 獻花(0

      0條評論

      發(fā)表

      請遵守用戶 評論公約

      類似文章 更多

      主站蜘蛛池模板: 无码高潮爽到爆的喷水视频| 超碰成人人人做人人爽| 中文字幕乱伦视频| 国产91午夜福利精品| 亚洲国产五月综合网| 久久国产精品波多野结衣AV| 人妻系列无码专区免费| 亚洲熟女乱色一区二区三区| 天堂中文8资源在线8| 狠狠婷婷色五月中文字幕| 蜜桃无码一区二区三区| 亚洲成AV人片在线观高清| 西西午夜无码大胆啪啪国模| 亚洲成人av在线系列| 久久精品国产亚洲夜色AV网站| 深夜福利资源在线观看| 国产无套护士在线观看| 少妇办公室好紧好爽再浪一点| 久久精品A一国产成人免费网站| 亚洲av日韩av永久无码电影| 色婷婷久久综合中文久久一本| 亚洲一区二区中文字幕| 精品国产午夜福利在线观看| 中文字幕结果国产精品| 丝袜美腿一区二区三区| 国产精品SM捆绑调教视频| 亚洲精品国产电影| 午夜不卡欧美AAAAAA在线观看| 无码国产69精品久久久久孕妇| 日韩在线视频观看免费网站| 亚洲国产成人综合精品| 精品一区二区三区免费播放| 欧美一本大道香蕉综合视频| 伊人久久综合无码成人网| 成年美女黄网站色大片免费看| 亚洲男女羞羞无遮挡久久丫| 动漫av网站免费观看| 亚洲 欧美 国产 制服 动漫| 熟女系列丰满熟妇AV| 深夜av在线免费观看| 人人妻人人狠人人爽|