0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測分子和晶體性質(zhì)

ExMh_zhishexues ? 來源:fqj ? 2019-05-16 14:51 ? 次閱讀

近年來機(jī)器學(xué)習(xí)算法在包括自然語言處理,圖像識(shí)別等諸多領(lǐng)域大放異彩。得益于如Materials Project1, QM92,3等材料數(shù)據(jù)庫的不斷完善和發(fā)展,機(jī)器學(xué)習(xí)正在被越來越多的應(yīng)用在材料學(xué)領(lǐng)域的研究中。然而,由于研究目標(biāo)的單一性,多數(shù)工作仍然局限于解決特定的晶體結(jié)構(gòu)以及特定的材料性質(zhì)預(yù)測問題。一種泛化的,普適性的機(jī)器學(xué)習(xí)模型仍然是材料學(xué)領(lǐng)域研究的重點(diǎn)目標(biāo)。此研究是基于

基于DeepMind建立的圖神經(jīng)網(wǎng)絡(luò)框架。

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測分子和晶體性質(zhì)

在材料學(xué)領(lǐng)域,對(duì)分子或晶體結(jié)構(gòu)的特征描述需要滿足平移,轉(zhuǎn)動(dòng),鏡面不變性,以及對(duì)整體結(jié)構(gòu)特異信息的表征。常見的結(jié)構(gòu)特征描述由于其局域性,缺乏對(duì)整體結(jié)構(gòu)信息的表達(dá),因而不具有普適性。圖網(wǎng)絡(luò)模型(graph-network)是一種基于圖論的結(jié)構(gòu)化模型,從理論上完美解決了這一問題。在圖論中,圖(graph)由若干給定的頂點(diǎn)(node)及連接頂點(diǎn)的邊(edge)構(gòu)成。運(yùn)用到分子(或晶體)結(jié)構(gòu)中,原子(atom)可以由頂點(diǎn)(node)描述,連接原子之間的化學(xué)鍵(bond)可以由邊(edge)描述,從而可以把一個(gè)個(gè)分子或晶體結(jié)構(gòu)看作一個(gè)個(gè)獨(dú)立的“圖”。基于此類模型的結(jié)構(gòu)描述方法,科研工作者可以開發(fā)出針對(duì)任何材料結(jié)構(gòu)或任何物理化學(xué)性質(zhì)的普適性模型。盡管具有理論可行性,此類模型由于模型復(fù)雜度,材料數(shù)據(jù)量的限制,仍很少被應(yīng)用在材料學(xué)領(lǐng)域中4,5。近日,UC San Diego 的 Shyue Ping Ong 課題組基于DeepMind建立的圖神經(jīng)網(wǎng)絡(luò)框架6,開發(fā)了一套分子和晶體通用性質(zhì)預(yù)測模型(MEGNet),在各項(xiàng)性質(zhì)預(yù)測測試中達(dá)到了領(lǐng)先水平7。

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測分子和晶體性質(zhì)

圖 1. MEGNet 概述。每個(gè)分子/晶體結(jié)構(gòu)由化學(xué)鍵信息,原子信息,和狀態(tài)信息描述。每個(gè)結(jié)構(gòu)描述輸入模型后,依次更新,直到總的結(jié)構(gòu)輸出性質(zhì)與DFT計(jì)算值接近。

圖1中描述了該模型的工作模式: 每個(gè)結(jié)構(gòu)可用三個(gè)向量表征,分別包含原子信息,化學(xué)鍵信息,和狀態(tài)函數(shù)信息。在每一次模型訓(xùn)練迭代中,依次更新化學(xué)鍵向量,原子向量,和狀態(tài)函數(shù)向量,得到新的結(jié)構(gòu)表征向量,直到通過該表征輸出的性質(zhì)與DFT計(jì)算結(jié)果趨于一致。作者首先用QM9 分子數(shù)據(jù)集中超過130k數(shù)據(jù)作為訓(xùn)練集訓(xùn)練模型,并用得到的模型預(yù)測分子中的13項(xiàng)物理化學(xué)性質(zhì),在其中的11項(xiàng)中達(dá)到同類模型中的最優(yōu)結(jié)果(表1)。更為先進(jìn)的是,之前的工作對(duì)由狀態(tài)參數(shù)關(guān)聯(lián)的狀態(tài)函數(shù),如內(nèi)能(U0, U),焓(H),和吉布斯自由能(G),采用的是分別訓(xùn)練模型進(jìn)行預(yù)測的方法。

然而本工作中,作者采用加入狀態(tài)參數(shù)作為輸入的方法,可由單一模型同時(shí)預(yù)測U0, U, H和G,并保持與分別模型訓(xùn)練類似的準(zhǔn)確度,大大提高了訓(xùn)練效率[YZ1]。在針對(duì)晶體結(jié)構(gòu)的應(yīng)用中,作者用Materials Project數(shù)據(jù)庫中超過69k數(shù)據(jù)作為訓(xùn)練集,針對(duì)生成能,能帶帶隙,體積模量和剪切模量進(jìn)行了回歸(Regression)分析,并用帶隙值作為金屬和非金屬的判據(jù)進(jìn)行分類(classification)分析?;貧w分析中的平均絕對(duì)誤差(MAE)低于同類型模型SchNet4和CGCNN5(表2),金屬和非金屬分類分析中綜合準(zhǔn)確率達(dá)86.9%,ROC中AUC達(dá)到0.926,與此前最優(yōu)模型CGCNN類似。

表1. 不同模型在QM9上預(yù)測13項(xiàng)性質(zhì)的平均絕對(duì)誤差(MAE)對(duì)比

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測分子和晶體性質(zhì)

表2. MEGNet和其他基于圖像模型

在Materials Project數(shù)據(jù)集的預(yù)測準(zhǔn)確度對(duì)比

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測分子和晶體性質(zhì)

在對(duì)模型的深入分析中,作者發(fā)現(xiàn),從最優(yōu)模型中提取出的元素映射(embedding)與化學(xué)常識(shí)吻合。例如,將元素映射投影二維空間可發(fā)現(xiàn),Eu和Yb與其他鑭系元素距離較遠(yuǎn),而與堿土金屬更接近,這與化學(xué)經(jīng)驗(yàn)相符。這樣的分析一方面佐證了模型可以學(xué)習(xí)到可靠的化學(xué)信息,另一方面可將學(xué)習(xí)到的化學(xué)信息用于遷移學(xué)習(xí),以大大降低訓(xùn)練新模型訓(xùn)練所需數(shù)據(jù)量。例如,在此例中,作者通過用~69k生成熱的數(shù)據(jù)訓(xùn)練的模型提取的元素映射,用于預(yù)測帶隙和彈性性質(zhì)的模型訓(xùn)練,后者的數(shù)據(jù)量只有生成熱的一半甚至十分之一。通過遷移學(xué)習(xí)的方法作者得到比直接訓(xùn)練更低的MAE和提高兩倍的收斂速度。這為小數(shù)據(jù)量的性質(zhì)的高效準(zhǔn)確模型訓(xùn)練提供了可行的方案。

在模型的使用方面,用戶可登陸http://megnet.crystals.ai,根據(jù)提示輸入晶體結(jié)構(gòu)編碼或cif文件即可得到模型預(yù)測的性質(zhì)。另外,文章所涉及的Python代碼均已開源(https://github.com/materialsvirtuallab/megnet.git)。下面示例如何使用已有模型和訓(xùn)練新的模型。

1示例一: 使用分子模型

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測分子和晶體性質(zhì)

2示例二:使用晶體模型預(yù)測剪切模量

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測分子和晶體性質(zhì)

3示例三:訓(xùn)練新模型

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測分子和晶體性質(zhì)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:MEGNet普適性圖神經(jīng)網(wǎng)絡(luò),精確預(yù)測分子和晶體性質(zhì)

文章出處:【微信號(hào):zhishexueshuquan,微信公眾號(hào):知社學(xué)術(shù)圈】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    BP神經(jīng)網(wǎng)絡(luò)預(yù)測模型的建模步驟

    BP(Backpropagation)神經(jīng)網(wǎng)絡(luò)是一種多層前饋神經(jīng)網(wǎng)絡(luò),其核心思想是通過反向傳播算法來調(diào)整網(wǎng)絡(luò)中的權(quán)重和偏置,從而實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的預(yù)測或分類。BP
    的頭像 發(fā)表于 07-11 16:57 ?1561次閱讀

    python做bp神經(jīng)網(wǎng)絡(luò)預(yù)測數(shù)據(jù)

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種多層前饋神經(jīng)網(wǎng)絡(luò),通過反向傳播算法進(jìn)行訓(xùn)練。它在許多領(lǐng)域,如模式識(shí)別、數(shù)據(jù)挖掘、預(yù)測分析等,都有廣泛的應(yīng)用。本文將
    的頭像 發(fā)表于 07-11 10:54 ?1296次閱讀

    bp神經(jīng)網(wǎng)絡(luò)預(yù)測模型建模步驟

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種多層前饋神經(jīng)網(wǎng)絡(luò),其核心思想是通過反向傳播算法來調(diào)整網(wǎng)絡(luò)中的權(quán)重和偏置,從而實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的預(yù)測或分類
    的頭像 發(fā)表于 07-11 10:52 ?527次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個(gè)基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及未來發(fā)展等多個(gè)方面,詳細(xì)闡述BP
    的頭像 發(fā)表于 07-10 15:20 ?1115次閱讀

    神經(jīng)網(wǎng)絡(luò)預(yù)測模型的構(gòu)建方法

    神經(jīng)網(wǎng)絡(luò)模型作為一種強(qiáng)大的預(yù)測工具,廣泛應(yīng)用于各種領(lǐng)域,如金融、醫(yī)療、交通等。本文將詳細(xì)介紹神經(jīng)網(wǎng)絡(luò)預(yù)測模型的構(gòu)建方法,包括模型設(shè)計(jì)、數(shù)據(jù)集準(zhǔn)備、模型訓(xùn)練、驗(yàn)證與評(píng)估等步驟,并附以代碼
    的頭像 發(fā)表于 07-05 17:41 ?673次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時(shí)間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)
    的頭像 發(fā)表于 07-05 09:52 ?585次閱讀

    rnn是什么神經(jīng)網(wǎng)絡(luò)模型

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)模型,它能夠處理序列數(shù)據(jù),并對(duì)序列中的元素進(jìn)行建模。RNN在自然語言處理、語音識(shí)別、時(shí)間序列預(yù)測
    的頭像 發(fā)表于 07-05 09:50 ?618次閱讀

    人工神經(jīng)網(wǎng)絡(luò)模型的分類有哪些

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks, ANNs)是一種模擬人腦神經(jīng)元網(wǎng)絡(luò)的計(jì)算模型,它在許多領(lǐng)域,如圖像識(shí)別、語音識(shí)別、自然語言處理、預(yù)測分析等有著廣泛的應(yīng)用。本文將
    的頭像 發(fā)表于 07-05 09:13 ?1233次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)

    遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)實(shí)際上是同一個(gè)概念,只是不同的翻譯方式
    的頭像 發(fā)表于 07-04 14:54 ?789次閱讀

    神經(jīng)網(wǎng)絡(luò)預(yù)測誤差大小怎么看

    神經(jīng)網(wǎng)絡(luò)預(yù)測誤差大小是衡量神經(jīng)網(wǎng)絡(luò)性能的重要指標(biāo)之一。本文將介紹如何評(píng)估神經(jīng)網(wǎng)絡(luò)預(yù)測誤差大小,包括誤差的定義、評(píng)估方法、誤差分析以及誤差優(yōu)化
    的頭像 發(fā)表于 07-03 10:41 ?1124次閱讀

    如何使用神經(jīng)網(wǎng)絡(luò)進(jìn)行建模和預(yù)測

    神經(jīng)網(wǎng)絡(luò)是一種強(qiáng)大的機(jī)器學(xué)習(xí)技術(shù),可以用于建模和預(yù)測變量之間的關(guān)系。 神經(jīng)網(wǎng)絡(luò)的基本概念 神經(jīng)網(wǎng)絡(luò)是一種受人腦啟發(fā)的計(jì)算模型,由大量的節(jié)點(diǎn)(神經(jīng)
    的頭像 發(fā)表于 07-03 10:23 ?766次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種不同類型的人工神經(jīng)網(wǎng)絡(luò),它們?cè)?/div>
    的頭像 發(fā)表于 07-03 10:12 ?1205次閱讀

    bp神經(jīng)網(wǎng)絡(luò)模型怎么算預(yù)測

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network,簡稱BP網(wǎng)絡(luò))是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法來調(diào)整網(wǎng)絡(luò)中的權(quán)重和偏置,從而實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的
    的頭像 發(fā)表于 07-03 09:59 ?792次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)和BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Networks,簡稱BPNN)是兩種
    的頭像 發(fā)表于 07-02 14:24 ?4120次閱讀

    了解如何使用PyTorch構(gòu)建神經(jīng)網(wǎng)絡(luò)

    神經(jīng)網(wǎng)絡(luò)直接應(yīng)用于數(shù)據(jù)集,您可以訓(xùn)練它們以預(yù)測節(jié)點(diǎn)、邊緣和與相關(guān)的任務(wù)。它用于和節(jié)點(diǎn)分類
    發(fā)表于 02-21 12:19 ?776次閱讀
    了解如何使用PyTorch構(gòu)建<b class='flag-5'>圖</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>