中國儲能網(wǎng)訊:美國MIT Climate網(wǎng)站發(fā)表署名Aaron Krol的文章,題目是:Is AI's energy use a big problem for climate change(人工智能的能源使用是氣候變化的一個(gè)大問題嗎)?
作為世界上最大的行業(yè)之一,計(jì)算行業(yè)歷來并不是一個(gè)主要的氣候污染源。就在2020年,支撐互聯(lián)網(wǎng)和高性能計(jì)算的數(shù)據(jù)中心和數(shù)據(jù)傳輸網(wǎng)絡(luò),僅產(chǎn)生了人類導(dǎo)致氣候變暖的溫室氣體排放的0.6%。但如果以足夠快的速度建造足夠多的數(shù)據(jù)中心,計(jì)算產(chǎn)生的排放很容易就會急劇增長。而生成式人工智能正在推動這種快速的建設(shè)。在美國,人工智能發(fā)展最快的國家,它已經(jīng)改變了整個(gè)電網(wǎng)的發(fā)展軌跡。
“數(shù)據(jù)中心的需求曾經(jīng)占美國電力消耗的1%到2%左右,”麻省理工學(xué)院林肯實(shí)驗(yàn)室超級計(jì)算中心的高級科學(xué)家Vijay Gadepally說,“如今,大概在4%到5%左右?!边@種快速增長對美國來說是一個(gè)巨大的變化。在過去20年里,美國的能源使用量基本保持平穩(wěn)。這使得人們更容易逐步用更便宜、更清潔的能源來源取代舊的污染型能源,比如燃煤發(fā)電廠——使得美國的溫室氣體排放自2000年代中期以來緩慢下降。
現(xiàn)在美國的能源需求又開始增長了。美國能源部的一項(xiàng)研究估計(jì),數(shù)據(jù)中心的能源使用量已經(jīng)達(dá)到了歷史新高,到2028年至少會翻一番,甚至可能會增加兩倍多。預(yù)計(jì)中國和歐洲也會出現(xiàn)類似的增長。Gadepally說,用清潔能源滿足這一需求將非常困難。“不能花十年時(shí)間來建造一個(gè)數(shù)據(jù)中心。因?yàn)榻?jīng)濟(jì)因素,它必須在一年或一年半內(nèi)完成。而通常能夠如此快速擴(kuò)展的能源來源是非可再生能源?!?/span>
對于需要“穩(wěn)定”能源(即全天候運(yùn)行的能源)的數(shù)據(jù)中心來說,清潔的風(fēng)能和太陽能也不是一個(gè)很好的選擇。如果開發(fā)者發(fā)現(xiàn)他們需要非??焖俚卦黾臃€(wěn)定能源,他們可能會轉(zhuǎn)向?qū)е職夂蜃兣奶烊粴狻@已經(jīng)在數(shù)據(jù)中心熱點(diǎn)地區(qū)如德克薩斯州和弗吉尼亞州發(fā)生了。一些人工智能公司正在嘗試使用新的、清潔的穩(wěn)定能源來源。谷歌正在建造利用地球自然熱量的地?zé)岚l(fā)電廠,而微軟則轉(zhuǎn)向核能。但是,Gadepally說,“我不知道我們能多快地?cái)U(kuò)大像地?zé)岷秃四苓@樣的技術(shù)。”他指出,這兩家公司2024年的排放量都增加了。
如果不能用清潔能源為所有數(shù)據(jù)中心供電,可以嘗試讓人工智能模型消耗更少的能源。經(jīng)典的超級計(jì)算程序,比如氣候模型,每次運(yùn)行時(shí)都會處理大量的數(shù)據(jù)——因此運(yùn)行得非常謹(jǐn)慎。人工智能則大不相同,因?yàn)橛脩糨斎氲臄?shù)據(jù)非常小。例如,想想你在像ChatGPT這樣的語言生成器中輸入的文本。
真正大的是模型對這些數(shù)據(jù)執(zhí)行的函數(shù)數(shù)量?!懊看文闩c一個(gè)生成式人工智能模型交談時(shí),你都在傳遞一些數(shù)據(jù),這些數(shù)據(jù)會流經(jīng)數(shù)百億個(gè)數(shù),”Gadepally說。“一般來說,人們認(rèn)為模型越大——也就是說,它擁有的參數(shù)越多——它就能產(chǎn)生越準(zhǔn)確或更逼真的內(nèi)容?!?/span>
這意味著在向公眾發(fā)布之前“訓(xùn)練”一個(gè)人工智能模型所需的計(jì)算能力是巨大的。開發(fā)人員會在新數(shù)據(jù)上多次執(zhí)行這些數(shù)百億個(gè)函數(shù),慢慢地強(qiáng)化模型以輸出更好的結(jié)果。這也意味著,一旦模型發(fā)布,它仍然會使用大量的能源。粗略地說,Gadepally說,查詢一個(gè)人工智能模型數(shù)億次相當(dāng)于重新訓(xùn)練它?!跋胂朊刻煊卸嗌侔偃f人在與ChatGPT或Anthropic或DeepSeek交談。如果你有十億次與ChatGPT的互動,那就像重新訓(xùn)練了那個(gè)模型很多次,這會迅速累積起來。”我們或許能夠建造出計(jì)算能力需求較小的高性能人工智能模型。例如,Gadepally的實(shí)驗(yàn)室研究了快速剔除無用參數(shù)的方法,使訓(xùn)練更加高效,并縮小最終模型的規(guī)模。今年1月,中國人工智能公司DeepSeek發(fā)布了一個(gè)訓(xùn)練時(shí)使用的處理能力只是其競爭對手一小部分的模型?!斑@是一個(gè)巨大的進(jìn)步,”Gadepally說。“他們能夠證明,如果你聰明一點(diǎn),并開始添加一些優(yōu)化,我們實(shí)際上可以用更少的資源做更多的事情?!?/span>
像其他模型一樣,DeepSeek包含數(shù)百億個(gè)參數(shù),但它只使用其中的一小部分。當(dāng)它收到一個(gè)新的查詢時(shí),它首先考慮被問到的是什么類型的問題,然后只將數(shù)據(jù)通過那些最擅長處理這種任務(wù)的參數(shù)。這節(jié)省了計(jì)算能力和能源。
然而,在每次查詢時(shí)使用更少的能源,和總體上使用更少的能源之間是有區(qū)別的?!澳隳軌蛲ㄟ^他們新穎的架構(gòu)減少很多浪費(fèi)的計(jì)算,”Gadepally說。“但負(fù)面的是,這也降低了成本。那么現(xiàn)在這是否吸引了一群原本不打算使用它的人呢?”更頻繁的使用可能會削弱,甚至完全抵消更高效的人工智能模型帶來的氣候好處。
降低人工智能能源使用的另一個(gè)途徑是數(shù)據(jù)中心本身。Gadepally的實(shí)驗(yàn)室通過“功率限制”,即限制每個(gè)處理器被允許消耗的電量,看到了令人印象深刻的結(jié)果?!拔液芨吲d地說,現(xiàn)在幾乎所有人都開始采用這種方法。我們看到工作負(fù)載的能源使用減少了15%到20%,只是使速度稍微慢一點(diǎn),大約百分之幾?!痹撔袠I(yè)也在從耗能的空調(diào)轉(zhuǎn)向冷卻其處理器。“他們現(xiàn)在做的是直接到芯片冷卻,基本上是讓冷水循環(huán)通過你的芯片,”Gadepally說?!斑@更有效率。”(不幸的是,它也使用了我們用于飲用和農(nóng)業(yè)的相同清潔水)。未來還有更高效的“浸沒式冷卻”,即將處理器浸入礦物油等液體中,這種液體導(dǎo)熱但不導(dǎo)電。
關(guān)注數(shù)據(jù)中心的意義在于,它們不僅僅用于人工智能?!拔覀兪褂玫拿總€(gè)設(shè)備都在某個(gè)地方被處理,”Gadepally指出?!凹词故荶oom通話也在通過某個(gè)數(shù)據(jù)中心。我的手機(jī)可能同時(shí)在與某個(gè)應(yīng)用程序?qū)υ?,這也在使用一些計(jì)算能力?!备咝У臄?shù)據(jù)中心降低了所有這些活動的能源使用量和氣候影響?!拔蚁矚g提醒大家,即使是小的改變也是可以的,”他補(bǔ)充說?!拔覀兠刻於荚谶M(jìn)行數(shù)十億次這樣的操作。所以即使是小的改善,當(dāng)乘以我們進(jìn)行操作的次數(shù)時(shí),效果可能相當(dāng)大?!?/span>