精品人妻系列无码人妻漫画,久久精品国产一区二区三区,国产精品无码专区,无码人妻少妇伦在线电影,亚洲人妻熟人中文字幕一区二区,jiujiuav在线,日韩高清久久AV

中國儲能網(wǎng)歡迎您!
當(dāng)前位置: 首頁 >新聞動(dòng)態(tài) 返回

大語言模型在儲能研究中的應(yīng)用

作者:袁譽(yù)杭 高宇辰 張俊東 高巖斌 王超瓏 陳翔 張強(qiáng) 來源:《儲能科學(xué)與技術(shù)》 發(fā)布時(shí)間:2025-02-17 瀏覽:

中國儲能網(wǎng)訊:

摘 要 在碳達(dá)峰、碳中和的大背景下,儲能科學(xué)作為一門信息密集、多學(xué)科交叉的研究領(lǐng)域,迫切需要新研究方法以應(yīng)對其日益復(fù)雜的難題與挑戰(zhàn)。隨著人工智能技術(shù)的快速發(fā)展,大語言模型在文本處理、信息收集與整合、圖片與視頻生成等領(lǐng)域取得了巨大的成功,其應(yīng)用也在逐漸延伸至自然科學(xué)研究領(lǐng)域,并在提升科研效率等方面展現(xiàn)出了巨大的潛力,有望助力儲能科學(xué)應(yīng)對未來挑戰(zhàn)。本文首先以ChatGPT為例,回顧了人工智能和大語言模型領(lǐng)域的重大進(jìn)展,從社會(huì)生活和科學(xué)研究兩方面分析了這些進(jìn)展所產(chǎn)生的影響,整理了國內(nèi)重點(diǎn)的大語言模型;然后結(jié)合儲能領(lǐng)域的具體案例介紹大語言模型的基本概念及原理,并從信息處理、信息生成和系統(tǒng)集成三個(gè)方面詳細(xì)探討大語言模型在儲能研究中的應(yīng)用,凸顯這一全新研究方法的實(shí)際效果與發(fā)展前景;最后結(jié)合具體時(shí)代背景,指出大語言模型與儲能交叉研究的挑戰(zhàn)與未來發(fā)展方向,并對這一新領(lǐng)域做出總結(jié)和展望。

關(guān)鍵詞 大語言模型;人工智能;儲能技術(shù);二次電池

隨著全球能源消費(fèi)的急劇增長,傳統(tǒng)化石燃料造成的環(huán)境污染問題日益突出,化石能源枯竭問題亦不可忽視。發(fā)展先進(jìn)儲能技術(shù),利用風(fēng)能、太陽能等清潔可再生能源成為應(yīng)對未來能源危機(jī)與環(huán)境問題的重要手段。盡管以鋰離子電池為代表的先進(jìn)儲能技術(shù)在當(dāng)代社會(huì)的電動(dòng)交通、消費(fèi)電子器件、智能電網(wǎng)等領(lǐng)域取得了廣泛的應(yīng)用,高能量密度(>500 Wh/kg)、高功率密度(>4 C)、長循環(huán)壽命(>15000圈)、高安全性等新需求對未來儲能技術(shù)的發(fā)展提出了更高的要求。經(jīng)過數(shù)十年的快速發(fā)展,儲能領(lǐng)域數(shù)據(jù)與信息快速累積、材料體系與制造工藝日益復(fù)雜、大規(guī)模集成應(yīng)用對系統(tǒng)管理要求越發(fā)嚴(yán)苛,因此儲能行業(yè)的進(jìn)一步發(fā)展面臨著全新的巨大挑戰(zhàn),也迫切需要新研究方法的介入來創(chuàng)造新的機(jī)遇與發(fā)展空間。

近年來,人工智能領(lǐng)域的大模型快速發(fā)展,涌現(xiàn)出諸多令人矚目的成果,例如戰(zhàn)勝世界圍棋冠軍的AlphaGo和能夠高精度預(yù)測蛋白質(zhì)結(jié)構(gòu)的AlphaFold,這些大模型正在引領(lǐng)產(chǎn)業(yè)的變革。大語言模型(large language model,LLM)是一種旨在理解和生成人類語言的人工智能大模型,盡管其發(fā)展歷史不長,但近期在文本處理與生成、圖片生成、視頻生成等領(lǐng)域?qū)崿F(xiàn)了快速發(fā)展。LLM由于具有卓越的語義理解能力和強(qiáng)大的遷移學(xué)習(xí)能力,在諸多應(yīng)用領(lǐng)域受到了越來越廣泛的關(guān)注。例如, OpenAI研究實(shí)驗(yàn)室于2018年6月開發(fā)了GPT-1,通過在不同的未標(biāo)記文本語料庫上對生成式語言模型進(jìn)行預(yù)訓(xùn)練,隨后針對特定任務(wù)對模型進(jìn)行有區(qū)別的微調(diào),提升了模型在常識推理、問答等方面的能力。2019年2月,OpenAI使用一個(gè)包含數(shù)百萬個(gè)網(wǎng)頁的數(shù)據(jù)庫WebText讓語言模型進(jìn)行無監(jiān)督學(xué)習(xí),進(jìn)一步開發(fā)了GPT-2。2020年5月,OpenAI開發(fā)了GPT-3,該模型在翻譯、問答等任務(wù)中展現(xiàn)出優(yōu)異的性能。2022年11月,OpenAI發(fā)布了ChatGPT(chat generative pre-trained transformer)。截至2023年1月末,ChatGPT的用戶破億,成為有史以來增長最快的消費(fèi)應(yīng)用軟件。2023年3月,GPT-4發(fā)布,支持圖片輸入,更加可靠和具有創(chuàng)造力。隨后,OpenAI基于Transformer和擴(kuò)散模型架構(gòu),開發(fā)了視頻生成模型Sora,再次展示了大語言模型的巨大潛力。

大語言模型的誕生對人類社會(huì)生活和科學(xué)研究產(chǎn)生了深遠(yuǎn)的影響。在社會(huì)生活方面,大語言模型可以更好地處理自然語言,進(jìn)行信息的收集與整理,從而對傳統(tǒng)的搜索引擎、咨詢服務(wù)等行業(yè)產(chǎn)生極大的沖擊;微軟已經(jīng)在其Office系列辦公軟件中植入Copilot,預(yù)示著未來的辦公軟件將進(jìn)一步智能化、便捷化。OpenAI團(tuán)隊(duì)和賓夕法尼亞大學(xué)的研究人員指出,在美國約80%的工作中至少10%的工作任務(wù)受到大語言模型的影響,約19%的工作中至少50%的工作任務(wù)受到大語言模型的影響,服務(wù)業(yè)受到的影響將大于制造業(yè)。在科學(xué)研究方面,大語言模型可以幫助批量處理文獻(xiàn)、收集與處理數(shù)據(jù)、撰寫代碼,成為一款強(qiáng)大而有效的科研輔助工具,將科研工作者從一些簡單重復(fù)性的工作中解放出來,從而提高科研效率。

與此同時(shí),國內(nèi)的大語言模型也在不斷發(fā)展,如百度的文心一言、騰訊的混元、科大訊飛的訊飛星火、智譜華章的智譜清言等。這些模型的功能正向著具體化、專業(yè)化的方向發(fā)展。其中,文心一言具備一定的文學(xué)創(chuàng)作、商業(yè)文案創(chuàng)作、數(shù)理邏輯推算、中文理解和多模態(tài)生成能力;混元能夠針對文檔、會(huì)議、廣告和營銷場景提供多樣化的服務(wù);訊飛星火具有文本生成、語言理解、知識問答、邏輯推理、數(shù)學(xué)能力、代碼能力和多模態(tài)能力;智譜清言具備通用問答、總結(jié)、翻譯文檔、代碼生成、創(chuàng)意寫作、分析數(shù)據(jù)等能力。迄今,國內(nèi)外已有數(shù)十甚至數(shù)百種大語言模型被公開報(bào)道(圖1)。

圖1   模型參數(shù)大于10B的大語言模型公開報(bào)道時(shí)間線

大語言模型的應(yīng)用逐漸拓展至自然科學(xué)研究中,給儲能技術(shù)發(fā)展與行業(yè)應(yīng)用帶來了全新的機(jī)遇。本文首先介紹大語言模型的相關(guān)概念,然后從信息處理、信息生成、系統(tǒng)集成等三個(gè)方面探討大語言模型在儲能研究領(lǐng)域中的應(yīng)用,最后總結(jié)這一交叉領(lǐng)域發(fā)展當(dāng)前所面臨的主要挑戰(zhàn),并展望未來的發(fā)展方向。

1 大語言模型相關(guān)概念解析

為更全面、深入理解大語言模型在儲能研究中的應(yīng)用,本節(jié)將介紹大語言模型、人工神經(jīng)網(wǎng)絡(luò)和生成式語言模型這三個(gè)核心基礎(chǔ)概念,簡要概述大語言模型的工作原理,從而幫助讀者更好地理解大語言模型在儲能領(lǐng)域中的應(yīng)用案例及現(xiàn)階段面臨的主要挑戰(zhàn)。

1.1 大語言模型

大語言模型指使用大量文本數(shù)據(jù)訓(xùn)練、包含大量模型參數(shù)、用于自然語言處理的深度學(xué)習(xí)模型。大模型的“大”體現(xiàn)在兩個(gè)方面:一方面是訓(xùn)練數(shù)據(jù)量大;另一方面是模型參數(shù)量大,常達(dá)億以上規(guī)模。GPT是具有代表性、影響力較大的大語言模型,歷代GPT的比較如表1所示。其中,GPT-4的訓(xùn)練模型參數(shù)量高達(dá)3000億,且支持多模態(tài)學(xué)習(xí)任務(wù),例如讀取圖片中信息或者根據(jù)文字生成對應(yīng)圖片。最近,化學(xué)大語言模型發(fā)展迅猛,例如北京科學(xué)智能研究院等發(fā)展的大原子模型DPA-2,有望在儲能化學(xué)機(jī)制探究和儲能材料設(shè)計(jì)等領(lǐng)域中實(shí)現(xiàn)廣泛應(yīng)用。

表1   對GPT-1、GPT-2、GPT-3、GPT-4的比較

1.2 人工神經(jīng)網(wǎng)絡(luò)模型

大語言模型的基本結(jié)構(gòu)為人工神經(jīng)網(wǎng)絡(luò)(圖2)。人工神經(jīng)網(wǎng)絡(luò)借鑒了神經(jīng)元間相互聯(lián)系的生理構(gòu)造和傳遞信息的生理功能,可以用于回歸、分類等任務(wù)。最簡單的神經(jīng)網(wǎng)絡(luò)由輸入層、隱藏層和輸出層組成,每一層由多個(gè)神經(jīng)元組成。對于單個(gè)神經(jīng)元,在接收上一層神經(jīng)元的數(shù)據(jù)并經(jīng)過計(jì)算處理后,將數(shù)據(jù)傳遞給下一層神經(jīng)元。人工神經(jīng)網(wǎng)絡(luò)能擬合高度非線性的場景,且適用于處理復(fù)雜多變的自然語言。

圖2   人工神經(jīng)網(wǎng)絡(luò)模型

人工神經(jīng)網(wǎng)絡(luò)模型已經(jīng)被廣泛應(yīng)用于儲能研究領(lǐng)域,包括儲能材料設(shè)計(jì)與儲能器件管理。例如,麻省理工的Jeffrey Grossman教授團(tuán)隊(duì)近日提出COSNet(composition-structure bimodal network)模型預(yù)測物質(zhì)性質(zhì),顯著降低了禁帶寬度、固態(tài)電解質(zhì)中的鋰離子電導(dǎo)率等性質(zhì)的預(yù)測誤差。電子科技大學(xué)劉芯言等采用長短期記憶循環(huán)神經(jīng)網(wǎng)絡(luò)模型預(yù)測鋰硫電池、鋰離子電池的循環(huán)壽命,并揭示了影響電池循環(huán)壽命的關(guān)鍵因素。

1.3 生成式語言模型

生成式語言模型是一種建立在一系列條件概率基礎(chǔ)上的模型。該模型先接收輸入詞語圖片,再通過條件概率圖片得到后續(xù)各種可能生成詞語的概率,最后綜合考慮條件概率和語法,產(chǎn)生新的詞語(圖3)。大語言模型的生成內(nèi)容不局限于語言,還有表格、代碼等,多樣化的信息呈現(xiàn)方式使得大語言模型能夠用于信息處理。但目前在將通用生成模型直接應(yīng)用于專業(yè)性的化學(xué)問題時(shí),模型的準(zhǔn)確率較低。例如,ChatGPT預(yù)測分子的油水分配系數(shù)的相對平均誤差為31%;ChatGPT將分子名稱轉(zhuǎn)化到SMILES的正確率僅為26%。因此,開發(fā)儲能研究領(lǐng)域的高質(zhì)量數(shù)據(jù)集和專業(yè)性生成式語言模型十分必要。

圖3   生成式語言模型示意圖

2 大語言模型在儲能領(lǐng)域的應(yīng)用

本節(jié)將從“信息處理”“信息生成”和“系統(tǒng)集成”三部分介紹大語言模型在儲能研究中的應(yīng)用。

2.1 信息處理

儲能是當(dāng)前學(xué)術(shù)研究的重要前沿與熱點(diǎn)方向,每天都有大量文獻(xiàn)發(fā)表。以鋰離子電池為例,2023年Web of Science平臺收錄的文獻(xiàn)超過了36000篇(檢索詞:lithium ion batter*)。雖然龐大的文獻(xiàn)與數(shù)據(jù)積累可以為該領(lǐng)域研究者提供大量的參考,但同時(shí)也帶來新的挑戰(zhàn)。一方面,個(gè)人幾乎不可能依靠傳統(tǒng)方式閱讀完領(lǐng)域內(nèi)所有的文獻(xiàn)與資料;另一方面,研究學(xué)術(shù)迫切需要的信息也常常淹沒在知識的海洋中而難以被快速檢索到。大語言模型能顯著加快文獻(xiàn)信息的處理過程,給儲能研究從業(yè)者提供了強(qiáng)大的新工具。例如加州大學(xué)伯克利分校Omar M. Yaghi教授團(tuán)隊(duì)構(gòu)建了ChatGPT化學(xué)助手來加速M(fèi)OF(metal-organic framework)材料的設(shè)計(jì)開發(fā)(圖4)。ChatGPT化學(xué)助手工作流程如圖4(a)所示,首先通過Python程序?qū)⒁寻l(fā)表文獻(xiàn)分為文本片段,再經(jīng)過篩選得到需要的文本片段,隨后對文本進(jìn)行分類,并從中取出與合成信息有關(guān)的段落,最后通過訓(xùn)練得到的語言模型以表格的形式呈現(xiàn)出文獻(xiàn)的數(shù)據(jù)。在得到的合成數(shù)據(jù)表格的基礎(chǔ)上,可以通過向大語言模型提問直接得到MOF合成方面的專業(yè)回答,最后結(jié)合領(lǐng)域?qū)<抑R開發(fā)后續(xù)材料合成實(shí)驗(yàn)。和傳統(tǒng)的人工輸入文獻(xiàn)相比,AI輔助的信息搜集過程雖然使精度略有下降[圖4(c)],但處理每篇文獻(xiàn)所需要的總時(shí)間可以降低到人工處理文獻(xiàn)所需時(shí)間的三分之一[圖4(b)]。ChatGPT化學(xué)助手最終在預(yù)測MOF材料結(jié)晶性方面實(shí)現(xiàn)了87%的準(zhǔn)確率,并初步確認(rèn)了MOF結(jié)晶過程中的重要因素。

圖4   ChatGPT化學(xué)助手三種工作流程示意圖。(a) ChatGPT化學(xué)助手工作流程圖,三種工作流程分別用紅點(diǎn)、藍(lán)點(diǎn)和綠點(diǎn)標(biāo)識;(b) 每種流程閱讀和處理一篇文獻(xiàn)的平均用時(shí)比較;(c) 每種流程的總平均精度、召回率和F1分?jǐn)?shù),圖表中的灰色誤差棒表示標(biāo)準(zhǔn)差

除了傳統(tǒng)的大語言模型,專注于科研領(lǐng)域的大語言模型也正在涌現(xiàn)。為了快速收集結(jié)構(gòu)化數(shù)據(jù)集,新南威爾士大學(xué)Bram Hoex教授團(tuán)隊(duì)提出了一種新的自然語言處理任務(wù),結(jié)構(gòu)化信息推理。科學(xué)家能夠通過在其領(lǐng)域內(nèi)選擇高質(zhì)量的綜述文章來開發(fā)模型,從而批量得到材料和器件信息,如成分、結(jié)構(gòu)、制備條件等。為了便于大語言模型高效理解化學(xué)分子信息,香港理工大學(xué)李青教授團(tuán)隊(duì)開發(fā)了一種用于分子翻譯的MolReGPT框架,能夠完成根據(jù)分子結(jié)構(gòu)獲取分子性質(zhì)與描述性信息以及根據(jù)文本陳述獲取目標(biāo)分子的任務(wù)。

大語言模型能夠以多種有效的方式呈現(xiàn)其加工后的信息。對于段落與文本,大語言模型能夠?qū)ζ溥M(jìn)行分類,從大量的文本中精煉出有價(jià)值的信息,減少研究者文本處理的時(shí)間。對于數(shù)據(jù),研究者可以要求大語言模型以一定的格式呈現(xiàn)數(shù)據(jù),比如流程圖、圖片和表格。研究者可以借助大語言模型將傳統(tǒng)的材料合成文字,并轉(zhuǎn)化成簡潔的流程圖,從而使得材料合成過程的描述簡化、規(guī)范化(圖5)。圖5(a)對比了兩種合成表述方式(段落的文字表述與分步明確的流程圖表述)的可讀性,其中F-K值(flesch-kincaid grade level score of readability)越低表明可讀性越高。由此可見,流程圖相較于段落式的表達(dá)具有更高的可讀性。

圖5   使用ChatGPT將材料合成文本轉(zhuǎn)為流程圖的效果和圖解。(a) 傳統(tǒng)文本和流程圖的F-K可讀性分?jǐn)?shù)比較;(b) 使用ChatGPT將材料合成文本轉(zhuǎn)化成流程圖的形式

盡管能夠極大地提高文獻(xiàn)閱讀和整理速度,現(xiàn)階段的大語言模型依然存在弊端。首先,由于模型對領(lǐng)域知識的了解較為匱乏或者訓(xùn)練模型的數(shù)據(jù)集中存在錯(cuò)誤信息,模型可能生成片面甚至錯(cuò)誤的信息,從而帶來信息誤導(dǎo)。其次,大語言模型的訓(xùn)練集來源于網(wǎng)絡(luò),其信息必然

一個(gè)確定的截止時(shí)間點(diǎn),由于截止時(shí)間點(diǎn)后的信息并不在模型的訓(xùn)練集內(nèi),導(dǎo)致其生成的內(nèi)容具有滯后性。因此,在線查詢和更新語料庫等是目前大語言模型發(fā)展的重要方向之一。最后,大語言模型的推理能力依然有限,難以在前沿研究領(lǐng)域提供原創(chuàng)性信息。荷蘭瓦格寧根大學(xué)Arjen Wals教授團(tuán)隊(duì)對ChatGPT的SWOT(strengths, weaknesses, opportunities and threats)分析指出,這項(xiàng)人工智能技術(shù)對其提供的信息缺乏深入的理解,難以保證其提供信息的質(zhì)量,并且缺少更高階的思考方式。前福布斯理事會(huì)成員、首席創(chuàng)新官Stefan Harrer指出,大語言模型難以為其提供的信息負(fù)責(zé),其提供的信息缺乏透明性和可解釋性。

2.2 信息生成

創(chuàng)新性想法在儲能研究中至關(guān)重要,但新想法的提出不僅需要研究者具有豐富的儲能知識,還需要個(gè)人長時(shí)間的思考與靈感。大語言模型能夠大大降低提出新想法的時(shí)間成本,因?yàn)樗軌蚣Y(jié)數(shù)以億計(jì)的互聯(lián)網(wǎng)用戶的想法。例如,向ChatGPT提問“請問如何解決電池的易燃易爆問題?”ChatGPT給出了10個(gè)解決方案:更好的電池設(shè)計(jì)、電池管理系統(tǒng)(battery management system, BMS)、溫度控制、固態(tài)電池、耐火電池外殼、具有關(guān)閉功能的電池隔膜、安全檢查、安全教育、合理的回收和遺棄體系、研究合作。這樣一個(gè)僅僅耗時(shí)數(shù)秒的對話,就能讓研究者得到眾多不同角度的答案。當(dāng)要了解某一具體科學(xué)知識時(shí),大語言模型能夠提供快速、個(gè)性化的回答,這降低了大眾了解科學(xué)知識的門檻。當(dāng)研究團(tuán)隊(duì)需要對某一科學(xué)問題展開討論時(shí),大語言模型能夠作為一個(gè)有豐富知識儲備的團(tuán)隊(duì)成員參與討論,甚至參與決策。

通過一定的處理方式,大語言模型的研究者可以提高模型所產(chǎn)生想法的質(zhì)量:其一,研究者可以在整合模型提供的回答后,再次向模型發(fā)問,從而得到更高質(zhì)量的回答;其二,雖然大語言模型的想法總體缺少創(chuàng)新性,但是研究者可以要求大語言模型從其提供的想法中篩選出相對更具有原創(chuàng)性或?qū)嵱眯缘南敕ā?

大語言模型在報(bào)告與論文撰寫方面的能力受到了廣泛關(guān)注。大語言模型能夠根據(jù)研究者的要求,快速生成含有較多信息并且格式規(guī)整、有邏輯的文本,這種能力可以用于給文本打草稿,從而加速文本撰寫的速度,而且大語言模型還能夠幫助研究者減少語法的低級錯(cuò)誤,并對文本加以潤色修改。

具備一定的編程能力是開展儲能人工智能研究的前提條件,而大語言模型極大地降低了研究者編程的門檻,包括輔助代碼撰寫、修改以及注釋。Chen等OpenAI研究者通過對已有的GPT模型進(jìn)行微調(diào),得到Codex模型,該模型能夠較好地解決面試級別難度的編程問題。代碼修改方面,基于大語言模型的Codex、CodeBERT和Conversational APR相繼被提出。Codex所支持的Copilot具備自動(dòng)填充、補(bǔ)全代碼的功能,還能對生成的代碼進(jìn)行注釋,使代碼的可讀性與可解釋性更優(yōu)。

2.3 系統(tǒng)集成

結(jié)合上述信息處理與信息生成功能,大語言模型有望與現(xiàn)有儲能研究手段及新興技術(shù)(高通量實(shí)驗(yàn)、智能機(jī)器人等)集成,推動(dòng)儲能材料研發(fā)、儲能工業(yè)生產(chǎn)與儲能系統(tǒng)運(yùn)維進(jìn)一步向智能化方向發(fā)展。

在儲能材料研發(fā)方面,中國科學(xué)院外籍院士、英國利物浦大學(xué)教授Andrew I. Cooper的團(tuán)隊(duì)2020年研發(fā)了可移動(dòng)機(jī)器人,用于尋找更優(yōu)的用于光解水制氫的光催化劑。該機(jī)器人在8天內(nèi)共自主執(zhí)行了688次實(shí)驗(yàn),并通過貝葉斯搜索算法從十個(gè)維度改變實(shí)驗(yàn)條件,最終找到產(chǎn)氫速率達(dá)到21.05 μmol/h的光催化劑混合物,約為實(shí)驗(yàn)開始時(shí)基準(zhǔn)光催化劑3.36 μmol/h的產(chǎn)氫速率的6倍。但該團(tuán)隊(duì)也指出了其工作的不足:該機(jī)器人沒有學(xué)習(xí)已有的化學(xué)知識,也不包括任何物理模型。

一種自然的改進(jìn)想法是通過大語言模型的信息處理功能來學(xué)習(xí)已有的文獻(xiàn)數(shù)據(jù),將已有的物理、化學(xué)知識嵌入智能機(jī)器人。2022年,中國科學(xué)技術(shù)大學(xué)江俊教授團(tuán)隊(duì)研發(fā)出由服務(wù)平臺、可移動(dòng)機(jī)器人、工作站和計(jì)算大腦組成的“機(jī)器化學(xué)家”(圖6),它能夠閱讀文獻(xiàn)、提出假設(shè)、執(zhí)行自動(dòng)化操作、分析實(shí)驗(yàn)數(shù)據(jù)、訓(xùn)練機(jī)器學(xué)習(xí)模型并反饋產(chǎn)生新的假設(shè)。實(shí)際性能方面,“全流程人工智能化學(xué)家”閱讀了15979篇論文,從文獻(xiàn)的4865個(gè)分子中篩選出發(fā)射波長位于可見光波段的具有聚集誘導(dǎo)發(fā)射特性的生物相容性發(fā)光體,并確定了發(fā)光體的最佳濃度為20 mmol左右[圖6(b)]。在另一個(gè)實(shí)驗(yàn)中,機(jī)器化學(xué)家通過篩選將實(shí)驗(yàn)次數(shù)降低到207次,大大提高了基于MIL-101 MOF的高熵電催化劑的設(shè)計(jì)與合成效率,并且最終從中選取出相同電流密度下過電勢最低的電催化劑。具體而言,隨著實(shí)驗(yàn)的開展與模型的迭代,207次實(shí)驗(yàn)中不同電催化劑在5 mA/cm2的電流密度下的過電勢總體呈下降趨勢[圖6(c)]。這一結(jié)果體現(xiàn)了機(jī)器化學(xué)家在自主篩選發(fā)現(xiàn)新催化劑材料方面的可行性與巨大潛力。

圖6   一位有科學(xué)思維的全能人工智能“化學(xué)家”展示

最新的智能機(jī)器人將數(shù)據(jù)庫篩選與檢索、文本挖掘、機(jī)器學(xué)習(xí)、主動(dòng)學(xué)習(xí)和機(jī)器人技術(shù)相結(jié)合,建立從數(shù)據(jù)獲取到產(chǎn)品迭代一體化的自主人工智能實(shí)驗(yàn)室,以高成功率合成了滿足要求的新型材料,證明了人工智能驅(qū)動(dòng)平臺在自主發(fā)現(xiàn)新材料方面的有效性,并推動(dòng)了文獻(xiàn)知識、計(jì)算化學(xué)和機(jī)器人技術(shù)的進(jìn)一步協(xié)同發(fā)展。2023年,美國加州大學(xué)伯克利分校的Gerbrand Ceder教授團(tuán)隊(duì)開發(fā)了用于無機(jī)粉末固態(tài)合成的自主實(shí)驗(yàn)室A-Lab平臺[圖7(a)]。首先,該平臺使用數(shù)據(jù)庫篩選與文本挖掘策略獲得項(xiàng)目所需數(shù)據(jù)集,在Materials Project數(shù)據(jù)庫中交叉篩選理論可行但是實(shí)驗(yàn)中未報(bào)道的數(shù)據(jù),并在24304篇出版物中提取到33343個(gè)固態(tài)樣品合成方案。然后,該平臺應(yīng)用兩套機(jī)器學(xué)習(xí)模型分別提供五個(gè)初始合成配方以及合成溫度,通過調(diào)用三個(gè)基于機(jī)器人技術(shù)的集成工作站進(jìn)行實(shí)驗(yàn),分別用于樣品制備、加熱和表征。最后,平臺自動(dòng)檢驗(yàn)產(chǎn)品質(zhì)量,若該輪實(shí)驗(yàn)合成產(chǎn)物未能達(dá)到所需目標(biāo)50%以上的產(chǎn)率,平臺將繼續(xù)使用基于主動(dòng)學(xué)習(xí)的自主反應(yīng)路線優(yōu)化模塊進(jìn)行迭代實(shí)驗(yàn),并對失敗的合成分析提供直接且可行的建議,以改進(jìn)當(dāng)前的材料篩選和合成設(shè)計(jì)方案。該平臺通過上述工作流程,在17?天的連續(xù)運(yùn)作中合成了58種目標(biāo)化合物中的41種,成功率為71%[圖7(b)]。

圖7   A-LAB示意圖

智能化學(xué)機(jī)器人的相關(guān)研究成果正通過更加集成化的平臺展現(xiàn)。例如,美國卡內(nèi)基梅隆大學(xué)的Gabe Gomes助理教授團(tuán)隊(duì)開發(fā)了一種基于多語言模型驅(qū)動(dòng)的智能系統(tǒng)Coscientist,該平臺包含網(wǎng)頁搜索模塊、文檔搜索模塊與硬件控制模塊,能夠從瀏覽互聯(lián)網(wǎng)和搜集文獻(xiàn)開始,完成自主設(shè)計(jì)、規(guī)劃和執(zhí)行復(fù)雜的科學(xué)實(shí)驗(yàn),分析和優(yōu)化實(shí)驗(yàn)結(jié)果,目前已成功完成了鈀催化交叉偶聯(lián)的反應(yīng)優(yōu)化,并展現(xiàn)出了一定的化學(xué)推理能力。洛桑聯(lián)邦理工學(xué)院的Philippe Schwaller教授等開發(fā)了ChemCrow平臺,集成了13種化學(xué)工具,旨在完成有機(jī)合成、藥物發(fā)現(xiàn)和材料設(shè)計(jì)等各種任務(wù)。谷歌的Ekin Dogus Cubuk等開發(fā)了一套基于圖網(wǎng)絡(luò)的材料發(fā)現(xiàn)框架(graph networks for materials exploration, GNoME),高效地發(fā)現(xiàn)了220萬種穩(wěn)定的晶體結(jié)構(gòu),例如層狀材料和固態(tài)電解質(zhì),GNoME的部分成果已整合至Materials Project。

在儲能工業(yè)生產(chǎn)方面,大語言模型能進(jìn)一步推動(dòng)儲能行業(yè)向智能化方向發(fā)展。目前,傳統(tǒng)鋰離子電池工業(yè)生產(chǎn)線已經(jīng)實(shí)現(xiàn)高度自動(dòng)化流水作業(yè)。一方面,大語言模型與現(xiàn)有技術(shù)結(jié)合可以讓工業(yè)機(jī)器人真正意義上“動(dòng)起來”而非重復(fù)簡單的機(jī)械動(dòng)作,進(jìn)一步提升工業(yè)自動(dòng)化生產(chǎn)水平。例如,將實(shí)際采集數(shù)據(jù)或者圖像輸入大語言模型模塊,為工業(yè)機(jī)器人執(zhí)行任務(wù)提供推理決策能力,使工業(yè)生產(chǎn)由流水作業(yè)向任務(wù)導(dǎo)向轉(zhuǎn)變,具備智能生產(chǎn)的功能。另一方面,大語言模型模塊可以實(shí)現(xiàn)工程師與工業(yè)機(jī)器人的語言交互,通過通俗易懂的語言指令替代復(fù)雜的機(jī)械操作或者代碼指令,指揮機(jī)器人執(zhí)行相應(yīng)任務(wù),從而加速工業(yè)機(jī)器人功能開發(fā)與調(diào)試。

鋰電池等儲能產(chǎn)品面臨著多元化的用戶需求,電極與電解質(zhì)材料、電極尺寸與厚度、電池型號、生產(chǎn)制造工藝等選擇不一,因而產(chǎn)品設(shè)計(jì)研發(fā)復(fù)雜度高。大語言模型可以與當(dāng)前電池產(chǎn)品與工藝設(shè)計(jì)軟件相結(jié)合,提高電池產(chǎn)品研發(fā)效率。一方面,大語言模型支持多模態(tài)的語言交互,可以實(shí)現(xiàn)產(chǎn)品設(shè)計(jì)工程師與軟件的高效互動(dòng);另一方面,大語言模型可以充分利用已有積累的工業(yè)大數(shù)據(jù),建立電池產(chǎn)品設(shè)計(jì)目標(biāo)與設(shè)計(jì)參數(shù)之間的定量關(guān)聯(lián),結(jié)合生成模型、主動(dòng)學(xué)習(xí)等先進(jìn)算法,在龐大的設(shè)計(jì)維度空間進(jìn)行產(chǎn)品的快速設(shè)計(jì)開發(fā)。

在儲能系統(tǒng)運(yùn)維方面,大語言模型可以發(fā)揮語言交互式大模型在處理海量數(shù)據(jù)并高效提供決策方案的優(yōu)勢。一方面,GWh級別電化學(xué)儲能電站包含幾十萬甚至上百萬節(jié)鋰離子電池,迫切需要高效的運(yùn)維手段。大語言模型有望融合化學(xué)機(jī)理與傳統(tǒng)深度學(xué)習(xí)方法,精準(zhǔn)預(yù)測鋰離子電池健康狀態(tài)并提前預(yù)警安全風(fēng)險(xiǎn),為電化學(xué)儲能電站的安全運(yùn)行提供技術(shù)支撐;同時(shí)可以結(jié)合均衡仿真技術(shù),在保障安全的前提下充分利用每一節(jié)電池的可用容量,實(shí)現(xiàn)儲能系統(tǒng)整體效率的最大化。另一方面,電化學(xué)儲能電站需要與電網(wǎng)層面的電力需求和調(diào)度做好結(jié)合。基于大語言模型對供需關(guān)系等信息的分析,可以提供高效的電力交易策略和電力價(jià)格優(yōu)化方案,從而實(shí)現(xiàn)電化學(xué)儲能系統(tǒng)與電網(wǎng)之間的智能調(diào)度??紤]到目前大語言模型的能力限制,需要理性客觀看待大語言模型在能源系統(tǒng)運(yùn)維中的應(yīng)用。在能源系統(tǒng)中使用大語言模型可能在數(shù)據(jù)隱私、模型運(yùn)行能耗、系統(tǒng)在惡意攻擊中的安全性等方面遇到挑戰(zhàn)。GTP-4能夠用于建立在電網(wǎng)仿真工具OpenDSS上運(yùn)行的分配網(wǎng)絡(luò),但是在缺少相應(yīng)案例的情況下GPT-4的表現(xiàn)相對一般。

3 大語言模型與儲能交叉研究挑戰(zhàn)與未來發(fā)展方向

大語言模型的出現(xiàn)進(jìn)一步推動(dòng)了儲能研究向著智能化、信息化的方向發(fā)展,有望在儲能材料研發(fā)、能源互聯(lián)網(wǎng)、云儲能等技術(shù)中加速信息處理與交互,實(shí)現(xiàn)能源供應(yīng)者、能源服務(wù)提供者、能源監(jiān)管者、能源使用者、第三方平臺之間信息的即時(shí)傳遞,從而使能源系統(tǒng)符合能源轉(zhuǎn)型的需要。例如,大語言模型不僅能快速總結(jié)文獻(xiàn),還能夠?qū)σ幌盗行畔⒓右蕴幚?,這將有利于大數(shù)據(jù)和科學(xué)研究的結(jié)合,促進(jìn)材料科學(xué)研究和電解液分子設(shè)計(jì)研究。此外,機(jī)器學(xué)習(xí)正被用于能源材料研究,而ChatGPT等模型的代碼生成功能降低了機(jī)器學(xué)習(xí)等研究方法的門檻,這將有助于和編程有關(guān)的新研究方法的推廣。系統(tǒng)集成方面,將大語言模型與機(jī)器人等技術(shù)深度結(jié)合能夠提高儲能材料研發(fā)效率,并且能推動(dòng)儲能工業(yè)生產(chǎn)和儲能系統(tǒng)運(yùn)維向更安全、更智能的方向發(fā)展。與此同時(shí),大語言模型與儲能交叉研究也面臨著諸多挑戰(zhàn)。

(1)高質(zhì)量數(shù)據(jù)集的建立。數(shù)據(jù)質(zhì)量的高低是保障人工智能模型預(yù)測精度的重要條件。如何在保證儲能數(shù)據(jù)安全的前提條件下,建立高質(zhì)量的儲能行業(yè)內(nèi)部或公開數(shù)據(jù)集,對于促進(jìn)大語言模型與儲能交叉領(lǐng)域發(fā)展十分關(guān)鍵。

(2)兼顧模型泛化能力與精度。當(dāng)前大語言模型主要面向傳統(tǒng)計(jì)算機(jī)領(lǐng)域,而根據(jù)儲能行業(yè)特點(diǎn)個(gè)性化開發(fā)的大模型較為缺乏。盡管大語言模型具有較好的泛化能力,直接將其遷移至儲能研究領(lǐng)域可能存在模型精度低的問題。

(3)大規(guī)模算力支撐。大語言模型的訓(xùn)練和使用往往需要大規(guī)模算力的支撐,其在儲能行業(yè)的應(yīng)用也受到高端芯片和電力資源的影響。借助當(dāng)前成熟的云算力平臺能夠解決算力需求難題,但面臨著數(shù)據(jù)泄露與網(wǎng)絡(luò)安全等潛在風(fēng)險(xiǎn)。

盡管大語言模型當(dāng)前在信息準(zhǔn)確性、信息原創(chuàng)性、模型安全性等方面還存在一定的不足,隨著國家對“人工智能+”政策的支持,以及對兼?zhèn)鋬δ芎腿斯ぶ悄軐I(yè)知識交叉領(lǐng)域人才的需求,大語言模型未來將在儲能研究與行業(yè)中進(jìn)一步廣泛與深度應(yīng)用,推進(jìn)儲能行業(yè)的快速、健康、持續(xù)發(fā)展,為構(gòu)建綠色新能源系統(tǒng)和保障國家能源安全提供關(guān)鍵技術(shù)支撐。

4 結(jié) 語

大語言模型正從信息處理、信息生成、系統(tǒng)集成等方面影響著科學(xué)研究,能夠極大地提高科研效率。本文首先介紹了大語言模型相關(guān)概念;然后從信息處理、信息生成和系統(tǒng)集成三個(gè)方面系統(tǒng)討論了大語言模型在儲能領(lǐng)域中的應(yīng)用,重點(diǎn)強(qiáng)調(diào)了大語言模型如何推動(dòng)儲能材料研發(fā)、儲能工業(yè)生產(chǎn)與儲能系統(tǒng)運(yùn)維進(jìn)一步向智能化方向發(fā)展;最后討論了大語言模型與儲能交叉研究現(xiàn)階段的主要挑戰(zhàn)以及未來發(fā)展方向。可以預(yù)見的是,大語言模型將廣泛滲入儲能研究與儲能產(chǎn)業(yè),推動(dòng)原有研發(fā)模式與生產(chǎn)技術(shù)革新,加快發(fā)展先進(jìn)儲能新質(zhì)生產(chǎn)力。
第一作者:袁譽(yù)杭(2002—),男,本科,研究方向?yàn)殇囯姵仉娊庖簷C(jī)器學(xué)習(xí),E-mail:[email protected];

分享到:

關(guān)鍵字:人工智能

中國儲能網(wǎng)版權(quán)說明:

1、凡注明來源為“中國儲能網(wǎng):xxx(署名)”,除與中國儲能網(wǎng)簽署內(nèi)容授權(quán)協(xié)議的網(wǎng)站外,未經(jīng)本網(wǎng)授權(quán),任何單位及個(gè)人不得轉(zhuǎn)載、摘編或以其它方式使用上述作品。

2、凡本網(wǎng)注明“來源:xxx(非中國儲能網(wǎng))”的作品,均轉(zhuǎn)載與其他媒體,目的在于傳播更多信息,但并不代表中國儲能網(wǎng)贊同其觀點(diǎn)、立場或證實(shí)其描述。其他媒體如需轉(zhuǎn)載,請與稿件來源方聯(lián)系,如產(chǎn)生任何版權(quán)問題與本網(wǎng)無關(guān)。

3、如因作品內(nèi)容、版權(quán)以及引用的圖片(或配圖)內(nèi)容僅供參考,如有涉及版權(quán)問題,可聯(lián)系我們直接刪除處理。請?jiān)?0日內(nèi)進(jìn)行。

4、有關(guān)作品版權(quán)事宜請聯(lián)系:13661266197、 郵箱:[email protected]