0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度解析機器學(xué)習(xí)模型加速傳統(tǒng)DFT計算

要長高 ? 來源:微納制造傳感 ? 作者:張希 ? 2022-04-27 14:41 ? 次閱讀

Pd40Ni10Cu30P20非晶合金具有非常出色的電催化活性并且在實驗中表現(xiàn)出很優(yōu)秀的耐用周期,這令它成為如今非常重要的析氫反應(yīng)催化劑之一。然而,非晶合金建模困難、合金晶胞太大而引起的巨額DFT計算成本使得人們對其表現(xiàn)出如此優(yōu)秀的催化性能的物理機理尚不清晰。

深圳大學(xué)張希老師課題組建立了Smooth Overlap of Atomic Positions-Machine Learning (SOAP-ML)模型加速傳統(tǒng)DFT計算并探究局部化學(xué)環(huán)境對于Pd40Ni10Cu30P20催化性能的影響。

利用該模型能夠采集大量的活性位點(40000個活性位點)并精確地預(yù)測出具有最佳催化性能的非晶合金局部化學(xué)環(huán)境(該模型的能量預(yù)測值與DFT計算值的均方差為0.018)。

該論文“Exploring the physical origin of the electrocatalytic performanceof an amorphous alloy catalyst via machine learning accelerated DFT study”發(fā)表在《Nanoscale》期刊上。

SOAP-ML模型的算法框架分為三部分:

(i) 在非晶合金上、下表面隨機生成540個活性位點樣本,DFT計算得到精確的吉布斯自由能 并構(gòu)建原始數(shù)據(jù)集;

(ii) 利用SOAP算符進行特征提取,構(gòu)建吉布斯自由能的機器學(xué)習(xí)勢函數(shù)并分析局域化學(xué)環(huán)境和吉布斯自由能的關(guān)系;

(iii) 在非晶合金的上、下表面密集采樣各20000個活性位點,通過機器學(xué)習(xí)函數(shù)預(yù)測位點的吉布斯自由能,得到具有最佳電催化性能的局域原子配比。

pYYBAGJo5G2AbC5GAAFqsmuWjA8541.png

圖1 SOAP-ML算法模型流程圖

poYBAGJo5HaAGpydAALt1wiv9B4570.png

圖2 (a) Pd40Ni10Cu30P20非晶合金優(yōu)化前的結(jié)構(gòu);(b) DFT優(yōu)化后的Pd40Ni10Cu30P20結(jié)構(gòu)

pYYBAGJo5HyANfFjAAlji0LyD4o548.png

圖3 (a) 3×3Pd40Ni10Cu30P20非晶合金的俯視圖,其中紅色框表示合金的單胞,用不同顏色標記每個單胞;(b) 活性位點的采樣分布俯視圖

poYBAGJo5IKAWd1xAAGTdX-foiE855.png

圖4 (a) 不同lmax和nmax下對應(yīng)的均方差值;(b) 訓(xùn)練集規(guī)模與均方差的關(guān)系;(c) DFT計算與用GPR模型預(yù)測得到的吉布斯自由能的機器學(xué)習(xí)交叉驗證;(d) 模型預(yù)測的相對誤差百分比

poYBAGJo5IqATNlzAADHM35JwDA964.png

圖5 不同吉布斯自由能下局域化學(xué)環(huán)境的原子百分比

poYBAGJo5JGAVn0iAALuW4E6z4Q428.png

圖6 (a) 的活性位點的原子結(jié)構(gòu)模型;(b) 氫吸附前后的差分電荷密度,黃色和藍色分別表示電荷累積和電荷損失;(c) 活性位點氫吸附前的PDOS圖;(d) 活性位點氫吸附后的PDOS圖

基于SOAP-ML模型,該團隊篩選出吉布斯自由能位于范圍內(nèi)的3236個活性位點并進行分析,得到了局域化學(xué)環(huán)境的最佳配比Pd : Cu : P : Ni = 0.51 : 0.33 : 0.09 : 0.07。分析出Pd和Cu原子對合金局域化學(xué)環(huán)境的催化性能有促進作用,而P原子對活性位點的催化性能有抑制作用。

此外,該團隊證實了Pd40Ni10Cu30P20非晶合金的長耐用周期來源于脫鎳。

該團隊進一步使用DFT計算了活性位點氫吸附前后的差分電荷密度與PDOS圖,揭示了Pd原子與Cu原子對析氫反應(yīng)起促進作用的機理。

該團隊提出的SOAP-ML模型能夠精準預(yù)測具有最佳催化性能的活性位點原子配比,其機器學(xué)習(xí)模型預(yù)測的結(jié)果達到了與DFT結(jié)果相比非常高的精度(其均方誤差為0.018)。

這些結(jié)果為今后高性能非晶合金催化材料的設(shè)計提供了系統(tǒng)性的參考,并對非晶合金的局域化學(xué)環(huán)境與吉布斯自由能的關(guān)系提供了比較深刻的見解。

深圳大學(xué)高思妍與甄惠杰為論文的共同第一作者,本論文的通訊作者為深圳大學(xué)張希老師,深圳大學(xué)機電學(xué)院馬將教授為合作者,深圳大學(xué)為第一完成單位。該項研究受到國家自然科學(xué)基金委以及深圳市海外高層次人才創(chuàng)新創(chuàng)業(yè)計劃的資助,荔園優(yōu)青第二期資助。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • DFT
    DFT
    +關(guān)注

    關(guān)注

    2

    文章

    231

    瀏覽量

    22757
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8424

    瀏覽量

    132764
收藏 人收藏

    評論

    相關(guān)推薦

    為什么說FPGA是機器深度學(xué)習(xí)的未來?

    都出現(xiàn)了重大突破。深度學(xué)習(xí)是這些領(lǐng)域中所最常使用的技術(shù),也被業(yè)界大為關(guān)注。然而,深度學(xué)習(xí)模型需要極為大量的數(shù)據(jù)和
    發(fā)表于 10-10 06:45

    深度學(xué)習(xí)模型是如何創(chuàng)建的?

    具有深度學(xué)習(xí)模型的嵌入式系統(tǒng)應(yīng)用程序帶來了巨大的好處。深度學(xué)習(xí)嵌入式系統(tǒng)已經(jīng)改變了各個行業(yè)的企業(yè)和組織。
    發(fā)表于 10-27 06:34

    什么是機器學(xué)習(xí)? 機器學(xué)習(xí)基礎(chǔ)入門

    預(yù)測。在傳統(tǒng)機器學(xué)習(xí)中,模型被部署到云服務(wù)中,以便運行中的應(yīng)用程序可以調(diào)用它,該應(yīng)用程序提供所需的輸入并接收來自模型的輸出。應(yīng)用程序可能會
    發(fā)表于 06-21 11:06

    部署基于嵌入的機器學(xué)習(xí)模型

    1、如何在生產(chǎn)中部署基于嵌入的機器學(xué)習(xí)模型  由于最近大量的研究,機器學(xué)習(xí)模型的性能在過去幾年里
    發(fā)表于 11-02 15:09

    TDA4對深度學(xué)習(xí)的重要性

    深度學(xué)習(xí)機器學(xué)習(xí)的一個子集,常用于自然語言處理,計算機視覺等領(lǐng)域,與眾不同之處在于,DL(Deep Learning )算法可以自動從圖像
    發(fā)表于 11-03 06:53

    圖像分類的方法之深度學(xué)習(xí)傳統(tǒng)機器學(xué)習(xí)

    實際情況非常復(fù)雜,傳統(tǒng)的分類方法不堪重負?,F(xiàn)在,我們不再試圖用代碼來描述每一個圖像類別,決定轉(zhuǎn)而使用機器學(xué)習(xí)的方法處理圖像分類問題。 目前,許多研究者使用CNN等深度
    發(fā)表于 09-28 19:43 ?0次下載

    Xilinx FPGA如何通過深度學(xué)習(xí)圖像分類加速機器學(xué)習(xí)

    了解Xilinx FPGA如何通過深度學(xué)習(xí)圖像分類示例來加速重要數(shù)據(jù)中心工作負載機器學(xué)習(xí)。該演示可通過Alexnet神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-28 06:54 ?3823次閱讀

    深度學(xué)習(xí)模型壓縮與加速綜述

    更好的性能,但是高額的存儲空間、計算資源消耗是使其難以有效的應(yīng)用在各硬件平臺上的重要原因。所以,卷積神經(jīng)網(wǎng)絡(luò)日益增長的深度和尺寸為深度學(xué)習(xí)在移動端的部署帶來了巨大的挑戰(zhàn),
    的頭像 發(fā)表于 06-08 17:26 ?5236次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>壓縮與<b class='flag-5'>加速</b>綜述

    模型為什么是深度學(xué)習(xí)的未來?

    傳統(tǒng)機器學(xué)習(xí)相比,深度學(xué)習(xí)是從數(shù)據(jù)中學(xué)習(xí),而大模型
    的頭像 發(fā)表于 02-16 11:32 ?2124次閱讀

    如何使用FPGA加速深度學(xué)習(xí)計算?

    當今的深度學(xué)習(xí)應(yīng)用如此廣泛,它們能夠為醫(yī)療保健、金融、交通、軍事等各行各業(yè)提供支持,但是大規(guī)模的深度學(xué)習(xí)計算對于
    的頭像 發(fā)表于 03-09 09:35 ?2514次閱讀

    機器學(xué)習(xí)深度學(xué)習(xí)的區(qū)別

      機器學(xué)習(xí)深度學(xué)習(xí)是當今最流行的人工智能(AI)技術(shù)之一。這兩種技術(shù)都有助于在不需要人類干預(yù)的情況下讓計算機自主
    發(fā)表于 08-28 17:31 ?1566次閱讀

    深度學(xué)習(xí)傳統(tǒng)機器學(xué)習(xí)的對比

    在人工智能的浪潮中,機器學(xué)習(xí)深度學(xué)習(xí)無疑是兩大核心驅(qū)動力。它們各自以其獨特的方式推動著技術(shù)的進步,為眾多領(lǐng)域帶來了革命性的變化。然而,盡管它們都屬于
    的頭像 發(fā)表于 07-01 11:40 ?1429次閱讀

    AI大模型傳統(tǒng)機器學(xué)習(xí)的區(qū)別

    AI大模型傳統(tǒng)機器學(xué)習(xí)在多個方面存在顯著的區(qū)別。以下是對這些區(qū)別的介紹: 一、模型規(guī)模與復(fù)雜度 AI大
    的頭像 發(fā)表于 10-23 15:01 ?716次閱讀

    AI大模型深度學(xué)習(xí)的關(guān)系

    AI大模型深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進,相輔相成。以下是對兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大
    的頭像 發(fā)表于 10-23 15:25 ?905次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當前硬件加速領(lǐng)域的一個熱門研究方向。以下是一些FPGA加速
    的頭像 發(fā)表于 10-25 09:22 ?256次閱讀