0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于自適應(yīng)差分進(jìn)化的學(xué)生成績(jī)等級(jí)預(yù)測(cè)神經(jīng)網(wǎng)絡(luò)模型

現(xiàn)代電子技術(shù) ? 來源:現(xiàn)代電子技術(shù) ? 作者:林夢(mèng)楠,李金輝 ? 2022-10-13 16:04 ? 次閱讀

引 言

在對(duì)本科生的教育過程中,有時(shí)會(huì)出現(xiàn)因?qū)W生成績(jī)過低、學(xué)分過少,而出現(xiàn)留級(jí)甚至延遲畢業(yè)的現(xiàn)象,這對(duì)學(xué)校和學(xué)生均造成了一定的負(fù)面影響。通過對(duì)學(xué)生成績(jī)數(shù)據(jù)的挖掘分析,可輔助教學(xué)管理,以便教師實(shí)施有效的教學(xué)活動(dòng),并刺激學(xué)生主動(dòng)學(xué)習(xí),幫助學(xué)生取得更好的成績(jī)。

文獻(xiàn)[1]利用數(shù)10種不同的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)對(duì)學(xué)生成績(jī)進(jìn)行預(yù)測(cè)。文獻(xiàn)[2]通過不同的分類模型,利用學(xué)生的校園卡數(shù)據(jù)和成績(jī)數(shù)據(jù)預(yù)測(cè)成績(jī),其中多層分類器(MLPC)的效果最好。文獻(xiàn)[3]的研究中表明,傳統(tǒng)教師講授式課堂下學(xué)生的不及格率是學(xué)生主動(dòng)學(xué)習(xí)的不及格率的1.5倍。因此,教師在教導(dǎo)學(xué)生相關(guān)的科目時(shí),可以通過提供預(yù)測(cè)數(shù)據(jù)來及時(shí)警告,促進(jìn)學(xué)生主動(dòng)學(xué)習(xí),從而降低不及格率。

文獻(xiàn)[4]使用神經(jīng)網(wǎng)絡(luò)來預(yù)測(cè)學(xué)生的學(xué)習(xí)成績(jī),結(jié)果顯示,用神經(jīng)網(wǎng)絡(luò)算法比用線性回歸更準(zhǔn)確。但在這項(xiàng)研究中,主要選擇了網(wǎng)上學(xué)習(xí)的成績(jī)來研究,沒有涉及線下面對(duì)面的教育方式。文獻(xiàn)[5]在分析中學(xué)生的成績(jī)時(shí),利用人工神經(jīng)網(wǎng)絡(luò),從認(rèn)知因素和心理因素兩個(gè)角度對(duì)學(xué)生的成績(jī)進(jìn)行聚類。但心理因素的主觀性過強(qiáng),容易影響結(jié)果的準(zhǔn)確性。

神經(jīng)網(wǎng)絡(luò)具有良好的學(xué)習(xí)性能,但也有較為明顯的缺點(diǎn):收斂速度較慢、易陷入局部最小。用進(jìn)化算法優(yōu)化神經(jīng)網(wǎng)絡(luò)可以在一定程度上解決此問題。其中,差分進(jìn)化算法是一種高效的尋優(yōu)算法,通過對(duì)個(gè)體差異的處理實(shí)現(xiàn)變異,適用于非連續(xù)不可微分或噪音較強(qiáng)的函數(shù)。文獻(xiàn)[6]證明了優(yōu)化后的 DE?BPNN 模型預(yù)測(cè)效果要優(yōu)于 GA ?BPNN、CS?BPNN 和 PSO ?BPNN 模型。利用差分進(jìn)化優(yōu)化神經(jīng)網(wǎng)絡(luò)算法,也可以讓運(yùn)算結(jié)果精度更高。

為了對(duì)大學(xué)生成績(jī)等級(jí)進(jìn)行更精準(zhǔn)的預(yù)測(cè),本文提出一種自適應(yīng)差分進(jìn)化神經(jīng)網(wǎng)絡(luò)模型,并對(duì)比了遺傳算法與差分進(jìn)化算法的適應(yīng)度曲線。結(jié)果表明,采用差分進(jìn)化算法尋找最優(yōu)權(quán)值閾值的效果較好。

1、自適應(yīng)差分進(jìn)化算法

自適應(yīng)差分進(jìn)化算法(Adaptive Differential EvolutionAlgorithm,ADE)是一種基于種群的全局搜索算法。常用的差分進(jìn)化模式為 DE/rand/1/bin 和 DE/best/1/bin,第一種收斂速度慢于第二種,但第一種在種群的多樣性上較好,第二種易陷入局部最小值[8]。為了保持良好的多樣性,本文采用的模式為 DE/rand/1/bin,即隨機(jī)選擇當(dāng)前種群的個(gè)體進(jìn)行變異,差異向量個(gè)數(shù)為 1,且在交叉的模式中應(yīng)用二項(xiàng)交叉。差分進(jìn)化算法主要有以下幾個(gè)步驟:種群初始化、變異、交叉、選擇。本文引入自適應(yīng)變異因子 F,其值隨迭代次數(shù)的增加而減小。

2、 ADE 優(yōu)化 BP神經(jīng)網(wǎng)絡(luò)算法

BP 神經(jīng)網(wǎng)絡(luò)的特點(diǎn)為誤差反向傳播,具有較強(qiáng)的魯棒性和容錯(cuò)性,但在運(yùn)算中容易陷入局部最小,收斂速度較低[9]。神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)由輸入層、隱含層、輸出層三層組成。根據(jù) Kolmogorov 定理[10]可知,隱含層層數(shù)為1 時(shí),只要有足夠多的神經(jīng)元節(jié)點(diǎn)數(shù),就可以任意精度逼近任意非線性連續(xù)函數(shù)。當(dāng)輸入層為 X1,X2,…,Xm,隱含層為 h1,h2,…,hn,輸出層為 Y 時(shí),網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)如圖 1所示。

488e77ee-4aca-11ed-a3b6-dac502259ad0.png

在該神經(jīng)網(wǎng)絡(luò)中,從輸入層到隱含層的權(quán)值為ωij,閾值為bj,從隱含層到輸出層的權(quán)值為ωjk,閾值為bk。其中,i=1,2,…,m;j=1,2,…,n;k=1。逐層傳遞輸入信號(hào)后,在輸出層計(jì)算預(yù)測(cè)值與實(shí)際值的誤差。再根據(jù)所得誤差,結(jié)合學(xué)習(xí)率 η,返回修改并更新權(quán)值與閾值。若迭代尚未結(jié)束,則進(jìn)行下一代計(jì)算。

差分進(jìn)化算法優(yōu)化 BP 神經(jīng)網(wǎng)絡(luò)的原理為:將神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)值與真實(shí)值的差值的均方誤差作為適應(yīng)度函數(shù),最終得到適應(yīng)度值最小時(shí)的權(quán)值閾值,并作為新的神經(jīng)網(wǎng)絡(luò)的權(quán)值閾值,最后進(jìn)行求解。流程圖如圖 2所示。

3、 ADE?BP 神經(jīng)網(wǎng)絡(luò)學(xué)生成績(jī)預(yù)測(cè)模型

3.1 數(shù)據(jù)預(yù)處理

為了便于后續(xù)數(shù)據(jù)的預(yù)測(cè),并保證預(yù)測(cè)的準(zhǔn)確性,首先要獲得正確且合適的數(shù)據(jù),因此需要對(duì)數(shù)據(jù)進(jìn)行預(yù)處理。從學(xué)校的服務(wù)器中調(diào)取出 2016 級(jí)的學(xué)生成績(jī)后,選擇某個(gè)學(xué)院的學(xué)生成績(jī)?yōu)楸疚牡难芯繉?duì)象。提取出該學(xué)院所有學(xué)生從入學(xué)到大二下學(xué)期之間所有的課程成績(jī),再選擇大三上學(xué)期的一門專業(yè)課成績(jī)作為被預(yù)測(cè)對(duì)象。由于在學(xué)生的所有成績(jī)中,“科目 h”這門課程的分?jǐn)?shù)較低。為了凸顯本模型的預(yù)測(cè)效果,并預(yù)防教學(xué)事故,本文將“科目 h”的分?jǐn)?shù)等級(jí)作為被預(yù)測(cè)數(shù)據(jù)。數(shù)據(jù)庫中的成績(jī)龐雜且部分?jǐn)?shù)據(jù)不完整,因此接下來需要提高數(shù)據(jù)質(zhì)量,對(duì)數(shù)據(jù)進(jìn)行預(yù)處理:數(shù)據(jù)清洗、數(shù)據(jù)集成、數(shù)據(jù)轉(zhuǎn)換、數(shù)據(jù)歸約。

1)數(shù)據(jù)清洗:去除空白數(shù)據(jù)和異常數(shù)據(jù)。

2)數(shù)據(jù)集成:將剩下的數(shù)據(jù)整理后,放在一個(gè)表格中,如表 1所示。

3)數(shù)據(jù)轉(zhuǎn)換:由于數(shù)據(jù)集維數(shù)較高,為了降低神經(jīng)網(wǎng)絡(luò)的計(jì)算開銷,本文在得到學(xué)生各科分?jǐn)?shù)后,將學(xué)生成績(jī)按照分?jǐn)?shù)的不同層次劃分為5個(gè)等級(jí):分?jǐn)?shù)<60分,等級(jí)為 0;60≤分?jǐn)?shù)<70,等級(jí)為 1;70≤分?jǐn)?shù)<80,等級(jí)為2;80≤分?jǐn)?shù)<90,等級(jí)為 3;90≤分?jǐn)?shù)<100,等級(jí)為 4。等級(jí)越高,該門科目的成績(jī)?cè)礁?,則該門科目的不及格率越低。

48aa9bea-4aca-11ed-a3b6-dac502259ad0.png

48cc9344-4aca-11ed-a3b6-dac502259ad0.png

4)數(shù)據(jù)歸約:由于原始數(shù)據(jù)量過于龐大,僅留下和“科目 h”的課程屬性相同的科目,即均為“學(xué)科平臺(tái)課程”的 8門科目。

預(yù)處理后,得到 183條有效數(shù)據(jù)如表 2所示。

48dc2d68-4aca-11ed-a3b6-dac502259ad0.png

3.2 相關(guān)性分析

由于科目較多,為了簡(jiǎn)化網(wǎng)絡(luò)結(jié)構(gòu),提高預(yù)測(cè)的效率,需要找出與被預(yù)測(cè)科目成績(jī)最相關(guān)的科目,作為神經(jīng)網(wǎng)絡(luò)的輸入。因此,本文首先通過 SPSS 對(duì)所有科目的成績(jī)等級(jí)進(jìn)行 Pearson 相關(guān)性分析。部分分析結(jié)果如表 3所示。

48f4f8a2-4aca-11ed-a3b6-dac502259ad0.png

相關(guān)性分析的結(jié)果在 0.01級(jí)別顯著,則認(rèn)為有 99%的把握認(rèn)為相關(guān)系數(shù)顯著,該相關(guān)性分析結(jié)果具有統(tǒng)計(jì)學(xué)意義。由表 3 可知,本次相關(guān)性分析結(jié)果可以信任。本文選擇與“科目 h”這門課程相關(guān)性系數(shù)大于 0.45 的科目分?jǐn)?shù)作為輸入數(shù)據(jù),具體課程為:“科目 e”“科目 f”“科目 g”。

3.3 差分進(jìn)化優(yōu)化 BP神經(jīng)網(wǎng)絡(luò)進(jìn)行預(yù)測(cè)

3.3.1 輸入數(shù)據(jù)的歸一化

本模型利用 Matlab 實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)。首先將所有數(shù)據(jù)的順序打亂,并隨機(jī)選取 150 條作為訓(xùn)練數(shù)據(jù),33 條作為測(cè)試數(shù)據(jù)。為了提高模型準(zhǔn)確度,再將所有數(shù)據(jù)行歸一化處理,使其值均在[-1,1]區(qū)間內(nèi)。

3.3.2 輸入層、輸出層、隱含層節(jié)點(diǎn)數(shù)以及其他參數(shù)的選取

設(shè)置輸入層數(shù)據(jù)是與“科目 h”相關(guān)性系數(shù)大于等于 0.45 的三門課程的成績(jī)等級(jí),輸入層神經(jīng)元節(jié)點(diǎn)數(shù)為 3;隱含層神經(jīng)元節(jié)點(diǎn)數(shù)的設(shè)定需要經(jīng)過多次測(cè)試,最終發(fā)現(xiàn)節(jié)點(diǎn)數(shù)為 9 時(shí)正確率最高,因此隱含層神經(jīng)元數(shù)設(shè)為9;輸出層為目標(biāo)課程即“科目 h”的成績(jī)等級(jí),其神經(jīng)元節(jié)點(diǎn)數(shù)為1。本文神經(jīng)網(wǎng)絡(luò)的隱含層節(jié)點(diǎn)轉(zhuǎn)移函數(shù)選擇 tansig 函數(shù)。輸出層節(jié)點(diǎn)轉(zhuǎn)移函數(shù)為 purelin函數(shù)。

4925c248-4aca-11ed-a3b6-dac502259ad0.png

3.3.3 差分進(jìn)化算法優(yōu)化初始權(quán)值閾值

本模型中收斂誤差設(shè)置為 0.01。由于學(xué)習(xí)速率過小會(huì)導(dǎo)致速度降低,學(xué)習(xí)率過大會(huì)導(dǎo)致權(quán)值震蕩。結(jié)合經(jīng)驗(yàn),將學(xué)習(xí)速率 η設(shè)為 0.05。

為了使權(quán)值可以具有較快的收斂速度,同時(shí)求解精度較高,設(shè)定種群規(guī)模 NP為 50,最大迭代次數(shù) Gm為 30,縮放因子 F 隨迭代自適應(yīng)變化,F(xiàn) 最小值為 0.2,最大值為 1.5,交叉因子 CR 為 0.9。所求問題的維數(shù)為:輸入層節(jié)點(diǎn)數(shù)×隱含層節(jié)點(diǎn)數(shù)+隱含層節(jié)點(diǎn)數(shù)×輸出層節(jié)點(diǎn)數(shù)+輸入層節(jié)點(diǎn)數(shù)+輸出層節(jié)點(diǎn)數(shù)。

隨機(jī)產(chǎn)生初始種群后,進(jìn)行變異與交叉操作。在交叉操作中,有指數(shù)交叉與二項(xiàng)交叉兩種方式。本文選用二項(xiàng)交叉。如果隨機(jī)數(shù)大于 CR,則被選入新個(gè)體。再以神經(jīng)網(wǎng)絡(luò)訓(xùn)練出的預(yù)測(cè)值與真實(shí)值做差,其均方誤差作為適應(yīng)度函數(shù)。設(shè)置 GA?BP 的種群規(guī)模和最大迭代次數(shù)的值與 ADE?BP 的值一樣,交叉概率為 0.9,變異概率為 0.2。圖 3為差分進(jìn)化優(yōu)化 BP神經(jīng)網(wǎng)絡(luò)的適應(yīng)度變化曲線,圖 4 為遺傳算法優(yōu)化神經(jīng)網(wǎng)絡(luò)適應(yīng)度變化的曲線。在達(dá)到最大迭代次數(shù)時(shí),搜索出適應(yīng)度值最小時(shí)的最優(yōu)解。

49385778-4aca-11ed-a3b6-dac502259ad0.png

通過對(duì)比 ADE?BP 與 GA?BP 的適應(yīng)度曲線,可以明顯看出,用自適應(yīng)差分進(jìn)化優(yōu)化 BP 神經(jīng)網(wǎng)絡(luò)的適應(yīng)度下降更快,其誤差均方差的值約為 0.044。而遺傳算法優(yōu)化神經(jīng)網(wǎng)絡(luò)所得到的均方誤差值最終約為 0.049,可以看出,ADE?BP 的適應(yīng)度更小,其均方差較小。因此可以得出,用自適應(yīng)差分進(jìn)化算法優(yōu)化神經(jīng)網(wǎng)絡(luò)能更快、更好地找到函數(shù)的最優(yōu)值。

3.3.4 賦予神經(jīng)網(wǎng)絡(luò)新的權(quán)值閾值并進(jìn)行預(yù)測(cè)

將搜索出的最優(yōu)解轉(zhuǎn)換為神經(jīng)網(wǎng)絡(luò)新的權(quán)值閾值,并對(duì)測(cè)試輸入數(shù)據(jù)進(jìn)行預(yù)測(cè)。由于本文將分?jǐn)?shù)數(shù)據(jù)轉(zhuǎn)換為 5 個(gè)等級(jí),因此所有結(jié)果應(yīng)為在區(qū)間[0,4]內(nèi)的整數(shù)。因此對(duì)神經(jīng)網(wǎng)絡(luò)的輸出值進(jìn)行取整。設(shè)正確率為預(yù)測(cè)正確的數(shù)量與輸出數(shù)據(jù)的數(shù)量的比值。本模型得到 的 正 確 數(shù) 量 為 27,輸 出 數(shù) 據(jù) 總 共 33 個(gè),正 確 率 為81.82%,MSE 為 0.181 8,并且誤差值均為1,可見誤差較小,認(rèn)為預(yù)測(cè)效果較好。預(yù)測(cè)結(jié)果如圖 5所示。

4973d94c-4aca-11ed-a3b6-dac502259ad0.png

4 、結(jié) 論

本文利用ADE算法和GA算法分別對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行優(yōu)化,可以看出,ADE 算法的收斂效果優(yōu)于后者。利用學(xué)生的成績(jī)數(shù)據(jù),結(jié)合 Matlab 實(shí)現(xiàn)了基于自適應(yīng)差分進(jìn)化的學(xué)生成績(jī)等級(jí)預(yù)測(cè),并且該模型的預(yù)測(cè)效果較好。該模型在學(xué)生成績(jī)的預(yù)測(cè)中具有較強(qiáng)的實(shí)際意義,不僅可以讓學(xué)生進(jìn)行有目的的主動(dòng)學(xué)習(xí)、合理安排學(xué)習(xí)時(shí)間、提高科目的通過率,還能協(xié)助教師及時(shí)了解學(xué)生的學(xué)習(xí)情況,改善教學(xué)策略。在將來的研究中,可以進(jìn)一步獲取學(xué)生多方面的信息,并進(jìn)行量化,對(duì)大學(xué)生的期末成績(jī)進(jìn)行深入研究。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • matlab
    +關(guān)注

    關(guān)注

    185

    文章

    2976

    瀏覽量

    230490
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4771

    瀏覽量

    100777

原文標(biāo)題:論文速覽 | 基于自適應(yīng)差分進(jìn)化的學(xué)生成績(jī)等級(jí)預(yù)測(cè)神經(jīng)網(wǎng)絡(luò)模型

文章出處:【微信號(hào):現(xiàn)代電子技術(shù),微信公眾號(hào):現(xiàn)代電子技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    神經(jīng)網(wǎng)絡(luò)教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡(luò)研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡(luò)的構(gòu)成  第2章人工神經(jīng)網(wǎng)絡(luò)基本模型  2.
    發(fā)表于 03-20 11:32

    關(guān)于BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型的確定!!

    請(qǐng)問用matlab編程進(jìn)行BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)時(shí),訓(xùn)練結(jié)果很多都是合適的,但如何確定最合適的?且如何用最合適的BP模型進(jìn)行外推預(yù)測(cè)?
    發(fā)表于 02-08 14:23

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)?

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測(cè)的計(jì)算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反
    發(fā)表于 07-12 08:02

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    陷入了近二十年的停滯。1986 年到 1988 年是神經(jīng)網(wǎng)絡(luò)模型發(fā)展的第二階段,稱為第二 代神經(jīng)網(wǎng)絡(luò)模型。1986 年 Rumelhart 等人提出了誤
    發(fā)表于 08-02 10:39

    自適應(yīng)模糊神經(jīng)網(wǎng)絡(luò)研究

    模糊神經(jīng)網(wǎng)絡(luò)提供了從人工神經(jīng)網(wǎng)絡(luò)中模糊規(guī)則的抽取。本文研究模糊神經(jīng)網(wǎng)絡(luò)自適應(yīng)學(xué)習(xí)、規(guī)則插入和抽取及神經(jīng)-模糊推理的FuNN
    發(fā)表于 06-06 13:45 ?18次下載

    自適應(yīng)遺傳BP神經(jīng)網(wǎng)絡(luò)模型在統(tǒng)計(jì)建模中的應(yīng)用

    利用一種自適應(yīng)遺傳BP神經(jīng)網(wǎng)絡(luò)模型對(duì)第三產(chǎn)業(yè)的產(chǎn)值比重和就業(yè)比重同時(shí)進(jìn)行預(yù)測(cè),實(shí)驗(yàn)結(jié)果表明該方法有很高的預(yù)測(cè)精度,具有一定的實(shí)用價(jià)值。
    發(fā)表于 08-29 11:37 ?8次下載

    基于自適應(yīng)神經(jīng)網(wǎng)絡(luò)模糊推理的負(fù)荷預(yù)測(cè)

    針對(duì)中長(zhǎng)期負(fù)荷預(yù)測(cè),本文將模糊理論與神經(jīng)網(wǎng)絡(luò)相結(jié)合,提出了基于高木-關(guān)野自適應(yīng)神經(jīng)網(wǎng)絡(luò)模糊推理系統(tǒng)的中長(zhǎng)期負(fù)荷預(yù)測(cè)
    發(fā)表于 12-18 16:48 ?6次下載

    加工過程的神經(jīng)網(wǎng)絡(luò)模型參考自適應(yīng)控制

    本文提出了用神經(jīng)網(wǎng)絡(luò)模型參考自適應(yīng)控制器對(duì)加工過程進(jìn)行控制的方法。并以銑床加工過程為例,針對(duì)原PID控制器產(chǎn)生超調(diào)量過大,控制效果不理想,設(shè)計(jì)了一個(gè)神經(jīng)網(wǎng)絡(luò)辨識(shí)器(N
    發(fā)表于 12-26 13:58 ?10次下載

    基于分進(jìn)化的BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法

    提出了一種基于改進(jìn)分進(jìn)化算法和 BP神經(jīng)網(wǎng)絡(luò) 的計(jì)算機(jī)網(wǎng)絡(luò)流量預(yù)測(cè)方法。利用
    發(fā)表于 08-10 16:13 ?31次下載
    基于<b class='flag-5'>差</b><b class='flag-5'>分進(jìn)化</b>的BP<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>學(xué)習(xí)算法

    一種改進(jìn)的自適應(yīng)遺傳算法優(yōu)化BP神經(jīng)網(wǎng)絡(luò)

    神經(jīng)網(wǎng)絡(luò)計(jì)算模型的優(yōu)化,運(yùn)用到汽車加油量計(jì)算中,通過比較標(biāo)準(zhǔn)BP網(wǎng)絡(luò)、Srinivas提出的自適應(yīng)遺傳算法優(yōu)化的BP神經(jīng)網(wǎng)絡(luò)和改進(jìn)的
    發(fā)表于 11-16 10:39 ?13次下載
    一種改進(jìn)的<b class='flag-5'>自適應(yīng)</b>遺傳算法優(yōu)化BP<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    基于反向?qū)W習(xí)的自適應(yīng)分進(jìn)化算法

    為解決分進(jìn)化( DE)算法過早收斂與搜索能力低的問題,討論對(duì)控制參數(shù)的動(dòng)態(tài)調(diào)整,提出一種基于反向?qū)W習(xí)的自適應(yīng)分進(jìn)化算法。該算法通過反向精
    發(fā)表于 03-29 17:44 ?1次下載

    基于神經(jīng)網(wǎng)絡(luò)模型參考自適應(yīng)實(shí)現(xiàn)混合動(dòng)力汽車電子速控制系統(tǒng)的設(shè)計(jì)

    本文所設(shè)計(jì)的混合動(dòng)力汽車采用輪轂驅(qū)動(dòng)技術(shù),根據(jù)輪轂驅(qū)動(dòng)電動(dòng)汽車的技術(shù)特點(diǎn),提出一種基于神經(jīng)網(wǎng)絡(luò)模型參考自適應(yīng)的控制方法.實(shí)現(xiàn)混合動(dòng)力驅(qū)動(dòng)汽車的電子速控制。
    的頭像 發(fā)表于 03-31 11:00 ?3709次閱讀
    基于<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>模型</b>參考<b class='flag-5'>自適應(yīng)</b>實(shí)現(xiàn)混合動(dòng)力汽車電子<b class='flag-5'>差</b>速控制系統(tǒng)的設(shè)計(jì)

    神經(jīng)網(wǎng)絡(luò)自適應(yīng)控制及其發(fā)展應(yīng)用

    文章系統(tǒng)地闡述了神經(jīng)網(wǎng)絡(luò)自適應(yīng)控制的本質(zhì)、優(yōu)勢(shì)與研究進(jìn)展,介紹了神經(jīng)網(wǎng)絡(luò)自適應(yīng)控制的不同結(jié)構(gòu)模型及其所具有的特性,分析了目前
    發(fā)表于 05-31 16:35 ?11次下載

    基于進(jìn)化卷積神經(jīng)網(wǎng)絡(luò)的屏蔽效能參數(shù)預(yù)測(cè)

    進(jìn)化神經(jīng)網(wǎng)絡(luò)進(jìn)化算法和深度學(xué)習(xí)兩者相結(jié)合的產(chǎn)物,在算法中神經(jīng)網(wǎng)絡(luò)的權(quán)值和閾值在初始種群個(gè)體染色體中,再用進(jìn)化算法優(yōu)化權(quán)值和閾值,同時(shí)具有深
    發(fā)表于 04-07 16:21 ?373次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)模型 卷積神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型 生成卷積神經(jīng)網(wǎng)絡(luò)模型

    cnn卷積神經(jīng)網(wǎng)絡(luò)模型 卷積神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型 生成卷積神經(jīng)網(wǎng)
    的頭像 發(fā)表于 08-21 17:11 ?1244次閱讀