中國儲能網(wǎng)訊:美國MIT Climate網(wǎng)站發(fā)表署名Aaron Krol的文章,題目是:Is AI's energy use a big problem for climate change(人工智能的能源使用是氣候變化的一個大問題嗎)?
作為世界上最大的行業(yè)之一,計算行業(yè)歷來并不是一個主要的氣候污染源。就在2020年,支撐互聯(lián)網(wǎng)和高性能計算的數(shù)據(jù)中心和數(shù)據(jù)傳輸網(wǎng)絡(luò),僅產(chǎn)生了人類導(dǎo)致氣候變暖的溫室氣體排放的0.6%。但如果以足夠快的速度建造足夠多的數(shù)據(jù)中心,計算產(chǎn)生的排放很容易就會急劇增長。而生成式人工智能正在推動這種快速的建設(shè)。在美國,人工智能發(fā)展最快的國家,它已經(jīng)改變了整個電網(wǎng)的發(fā)展軌跡。
“數(shù)據(jù)中心的需求曾經(jīng)占美國電力消耗的1%到2%左右,”麻省理工學(xué)院林肯實驗室超級計算中心的高級科學(xué)家Vijay Gadepally說,“如今,大概在4%到5%左右。”這種快速增長對美國來說是一個巨大的變化。在過去20年里,美國的能源使用量基本保持平穩(wěn)。這使得人們更容易逐步用更便宜、更清潔的能源來源取代舊的污染型能源,比如燃煤發(fā)電廠——使得美國的溫室氣體排放自2000年代中期以來緩慢下降。
現(xiàn)在美國的能源需求又開始增長了。美國能源部的一項研究估計,數(shù)據(jù)中心的能源使用量已經(jīng)達到了歷史新高,到2028年至少會翻一番,甚至可能會增加兩倍多。預(yù)計中國和歐洲也會出現(xiàn)類似的增長。Gadepally說,用清潔能源滿足這一需求將非常困難。“不能花十年時間來建造一個數(shù)據(jù)中心。因為經(jīng)濟因素,它必須在一年或一年半內(nèi)完成。而通常能夠如此快速擴展的能源來源是非可再生能源?!?/span>
對于需要“穩(wěn)定”能源(即全天候運行的能源)的數(shù)據(jù)中心來說,清潔的風(fēng)能和太陽能也不是一個很好的選擇。如果開發(fā)者發(fā)現(xiàn)他們需要非常快速地增加穩(wěn)定能源,他們可能會轉(zhuǎn)向?qū)е職夂蜃兣奶烊粴狻@已經(jīng)在數(shù)據(jù)中心熱點地區(qū)如德克薩斯州和弗吉尼亞州發(fā)生了。一些人工智能公司正在嘗試使用新的、清潔的穩(wěn)定能源來源。谷歌正在建造利用地球自然熱量的地?zé)岚l(fā)電廠,而微軟則轉(zhuǎn)向核能。但是,Gadepally說,“我不知道我們能多快地擴大像地?zé)岷秃四苓@樣的技術(shù)?!彼赋?,這兩家公司2024年的排放量都增加了。
如果不能用清潔能源為所有數(shù)據(jù)中心供電,可以嘗試讓人工智能模型消耗更少的能源。經(jīng)典的超級計算程序,比如氣候模型,每次運行時都會處理大量的數(shù)據(jù)——因此運行得非常謹(jǐn)慎。人工智能則大不相同,因為用戶輸入的數(shù)據(jù)非常小。例如,想想你在像ChatGPT這樣的語言生成器中輸入的文本。
真正大的是模型對這些數(shù)據(jù)執(zhí)行的函數(shù)數(shù)量。“每次你與一個生成式人工智能模型交談時,你都在傳遞一些數(shù)據(jù),這些數(shù)據(jù)會流經(jīng)數(shù)百億個數(shù),”Gadepally說?!耙话銇碚f,人們認(rèn)為模型越大——也就是說,它擁有的參數(shù)越多——它就能產(chǎn)生越準(zhǔn)確或更逼真的內(nèi)容。”
這意味著在向公眾發(fā)布之前“訓(xùn)練”一個人工智能模型所需的計算能力是巨大的。開發(fā)人員會在新數(shù)據(jù)上多次執(zhí)行這些數(shù)百億個函數(shù),慢慢地強化模型以輸出更好的結(jié)果。這也意味著,一旦模型發(fā)布,它仍然會使用大量的能源。粗略地說,Gadepally說,查詢一個人工智能模型數(shù)億次相當(dāng)于重新訓(xùn)練它。“想想每天有多少百萬人在與ChatGPT或Anthropic或DeepSeek交談。如果你有十億次與ChatGPT的互動,那就像重新訓(xùn)練了那個模型很多次,這會迅速累積起來?!蔽覀兓蛟S能夠建造出計算能力需求較小的高性能人工智能模型。例如,Gadepally的實驗室研究了快速剔除無用參數(shù)的方法,使訓(xùn)練更加高效,并縮小最終模型的規(guī)模。今年1月,中國人工智能公司DeepSeek發(fā)布了一個訓(xùn)練時使用的處理能力只是其競爭對手一小部分的模型?!斑@是一個巨大的進步,”Gadepally說。“他們能夠證明,如果你聰明一點,并開始添加一些優(yōu)化,我們實際上可以用更少的資源做更多的事情?!?/span>
像其他模型一樣,DeepSeek包含數(shù)百億個參數(shù),但它只使用其中的一小部分。當(dāng)它收到一個新的查詢時,它首先考慮被問到的是什么類型的問題,然后只將數(shù)據(jù)通過那些最擅長處理這種任務(wù)的參數(shù)。這節(jié)省了計算能力和能源。
然而,在每次查詢時使用更少的能源,和總體上使用更少的能源之間是有區(qū)別的?!澳隳軌蛲ㄟ^他們新穎的架構(gòu)減少很多浪費的計算,”Gadepally說?!暗?fù)面的是,這也降低了成本。那么現(xiàn)在這是否吸引了一群原本不打算使用它的人呢?”更頻繁的使用可能會削弱,甚至完全抵消更高效的人工智能模型帶來的氣候好處。
降低人工智能能源使用的另一個途徑是數(shù)據(jù)中心本身。Gadepally的實驗室通過“功率限制”,即限制每個處理器被允許消耗的電量,看到了令人印象深刻的結(jié)果?!拔液芨吲d地說,現(xiàn)在幾乎所有人都開始采用這種方法。我們看到工作負(fù)載的能源使用減少了15%到20%,只是使速度稍微慢一點,大約百分之幾?!痹撔袠I(yè)也在從耗能的空調(diào)轉(zhuǎn)向冷卻其處理器?!八麄儸F(xiàn)在做的是直接到芯片冷卻,基本上是讓冷水循環(huán)通過你的芯片,”Gadepally說?!斑@更有效率?!保ú恍业氖?,它也使用了我們用于飲用和農(nóng)業(yè)的相同清潔水)。未來還有更高效的“浸沒式冷卻”,即將處理器浸入礦物油等液體中,這種液體導(dǎo)熱但不導(dǎo)電。
關(guān)注數(shù)據(jù)中心的意義在于,它們不僅僅用于人工智能?!拔覀兪褂玫拿總€設(shè)備都在某個地方被處理,”Gadepally指出?!凹词故荶oom通話也在通過某個數(shù)據(jù)中心。我的手機可能同時在與某個應(yīng)用程序?qū)υ?,這也在使用一些計算能力?!备咝У臄?shù)據(jù)中心降低了所有這些活動的能源使用量和氣候影響?!拔蚁矚g提醒大家,即使是小的改變也是可以的,”他補充說?!拔覀兠刻於荚谶M行數(shù)十億次這樣的操作。所以即使是小的改善,當(dāng)乘以我們進行操作的次數(shù)時,效果可能相當(dāng)大?!?/span>