人工智能技術,尤其是生成式人工智能技術(AIGC)的發展,給我們的生活和工作帶來了諸多便利,同時也帶來了很多挑戰,能源消耗就是其中之一。 近期,有許多媒體報道,人工智能尤其是生成式人工智能技術的發展需要耗費大量的電力。據外媒報道,有荷蘭國家銀行數據專家估計,ChatGPT每天消耗超過50萬千瓦時的電力,用于處理約2億個用戶請求,這相當于美國家庭每天用電量的1.7萬多倍。谷歌的搜索引擎如果在每次搜索中都使用AIGC,其年耗電量將增至約290億千瓦時,這一數字也超過了很多小國家的一年用電量,包括肯尼亞、危地馬拉和克羅地亞等。 來自AI新創公司Hugging Face和卡內基梅隆大學的研究員還就AI系統執行不同任務時的耗電量進行了研究。研究結果顯示,AI產生文字的耗能比產生圖片的低。AI產生文字約需消耗0.042kWh,發電端需要發電1.35kWh,而一臺智能手機充滿電則需要0.012kWh;而AI產生圖片的模型則耗電量大增,約為11.49kWh,約等于給957.5臺智能手機充滿電。 ![]() 另外,根據研究,訓練一個AI模型所產生的能耗甚至可以達到五輛汽車一生排放的碳總量。對于像BERT這樣的大型模型,其碳足跡也相當可觀,達到了1400磅二氧化碳,這與一個人來回坐飛機穿越美洲的排放量相當。 而且,隨著AIGC的不斷迭代,其所需的電力還會越來越多。 特斯拉創始人馬斯克在不久前接受媒體采訪時就預言,AI行業將在明年迎來電力短缺的問題,屆時將沒有足夠的電力來運行所有芯片;OpenAI創始人Altman此前在2024年達沃斯論壇上也表示,“我們需要的能源確實比我們之前想象的要多得多。我對世界的構想是未來的兩種重要貨幣是算力和能源。我認為我們仍然沒有意識到技術對能源的需求。如果在能源方面不能取得突破,就不可能實現技術目標。”另外,還有報道稱,英偉達創始人黃仁勛認為,“AI的盡頭是光伏和儲能!” 隨后,這些言論直接導致了儲能和能源板塊的相關股票大漲。那人工智能真的如報道的那樣如此耗能嗎? 有社交媒體博主將AI的耗電情況和電解鋁生產的耗電情況進行了對比,他表示,電解鋁生產一噸鋁通常需要消耗約14000至15000度電,50萬度電約生產三十多噸鋁,換算成一年的話,就是生產10000多噸電解鋁。而據IAI的數據,2022年,我國生產的鋁的產量為4021萬噸。通過對比來看,目前AI的耗電量相對來說可能沒有那么大。 而且,前述黃仁勛的原話中也沒有直接表示“AI的盡頭就是光伏和儲能”,他的原話是:當我們替換通用計算的基礎設施時,請記住架構的性能將不斷提高。你不能只想著要購買更多的計算機,你還必須假設,計算機的速度會越來越快。因此,你所需要的總量就不會這么多了。否則,如果你只是假設計算機的速度永遠不會變快,你可能會得出一個結論——我們需要14個不同的行星、3個不同星系、4個太陽為這一切提供燃料。但是很明顯的是計算機架構不斷進步。在過去十年里,我們做出的最偉大貢獻之一就是將計算和人工智能提高了一百萬倍。因此,無論你認為推動世界的需求是什么,你都必須考慮到,它還將以100萬倍的速度增長,變得更快和更高效。當某些東西提高了一百萬倍,而它所消耗的成本、空間或能源并沒有增長一百萬倍。事實上,你已經使這項技術大眾化了。 很顯然,他想表達的意思是,隨著英偉達的GPU產品的不斷迭代和發展,它們讓AI的計算效率提高了,從而也節省了能源的消耗。 但AI的能源消耗問題的確也是一個不容小覷的問題,未來還是需要采取一系列的措施來降低其能耗,包括優化算法和模型設計、使用高效的硬件和軟件、利用綠色能源和節能技術、智能調度和負載均衡、數據壓縮和傳輸優化等。只有解決了能耗問題,人工智能技術才能更好、更可持續的發展。 END |
|