基于神經(jīng)網(wǎng)絡(luò)的抽油機(jī)故障診斷
神經(jīng)網(wǎng)絡(luò)技術(shù)在學(xué)習(xí)速度、適應(yīng)性、非線性映射等性能上有獨(dú)特的優(yōu)勢(shì),能夠進(jìn)行有效的監(jiān)督分類,因此常用來進(jìn)行聚類分析,然而在進(jìn)行聚類分析時(shí),出現(xiàn)為了提高識(shí)別精度而使網(wǎng)絡(luò)規(guī)模較大,并且收斂時(shí)間慢的問題,1981年芬蘭學(xué)者Kohonen提出了一個(gè)比較完整的、分類性能較好的自組織特征映射(Self-Organizing Feature Map)神經(jīng)網(wǎng)絡(luò)(簡稱SOM網(wǎng)絡(luò))的方案。SOM網(wǎng)絡(luò)是一種由全連接的神經(jīng)元陣列組成的無教師自組織網(wǎng)絡(luò),可以認(rèn)為是2層網(wǎng)絡(luò),第一層是輸入層,另一層是競爭層,本例的SOM網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示 [1]:
本文針對(duì)傳統(tǒng)自組織神經(jīng)網(wǎng)絡(luò)分類精度低和收斂速度慢的缺點(diǎn)進(jìn)行改進(jìn)。
2 自組織特征映射神經(jīng)網(wǎng)絡(luò)
SOM網(wǎng)絡(luò)能將任意維輸入映射成一維或者二維離散圖形,并保持其拓?fù)浣Y(jié)構(gòu)不變,此外,網(wǎng)絡(luò)通過對(duì)輸入模式的反復(fù)學(xué)習(xí),可以使連接權(quán)值空間分布密度與輸入模式的概率分布趨于一致。網(wǎng)絡(luò)在競爭過程中,近鄰者相互激勵(lì),遠(yuǎn)鄰者相互抑制,比遠(yuǎn)鄰更遠(yuǎn)的神經(jīng)元?jiǎng)t表現(xiàn)弱激勵(lì)作用。由于這種交互作用的曲線類似于墨西哥人帶的帽子,因此也稱這種交互方式為“墨西哥帽”[2],如圖2 所示:
SOM網(wǎng)絡(luò)根據(jù)其學(xué)習(xí)規(guī)則,對(duì)輸入模式進(jìn)行自動(dòng)分類,捕捉住各個(gè)輸入模式中所含的模式特征,并對(duì)其進(jìn)行自組織,在競爭層將分類結(jié)果表現(xiàn)出來,SOM網(wǎng)絡(luò)的特點(diǎn)是:
1) 一旦由于某種原因,某個(gè)神經(jīng)元受到損害或者完全失效,剩下的神經(jīng)元仍可以保證所對(duì)應(yīng)的記憶信息不會(huì)消失。
2) 網(wǎng)絡(luò)對(duì)學(xué)習(xí)模式的記憶不是一次性完成的,而是通過反復(fù)學(xué)習(xí),將輸入模式的統(tǒng)計(jì)特征“溶解”到各個(gè)連接權(quán)上的。所以這種網(wǎng)絡(luò)具有較強(qiáng)的抗干擾能力。
它的具體的工作原理過程如下:
1) 首先將權(quán)值賦予隨機(jī)初始值;同時(shí)設(shè)置一個(gè)初始鄰域,并設(shè)置網(wǎng)絡(luò)的循環(huán)次數(shù) ;
2)然后給出一個(gè)新的輸入模式輸入到網(wǎng)絡(luò)上;
3) 采用勝者為王的模式,計(jì)算模式和所有的輸出神經(jīng)元的距離,并選擇和距離最小的神經(jīng)元C, 即,則C即為獲勝神經(jīng)元;
4) 更新結(jié)點(diǎn)及其鄰域結(jié)點(diǎn)的連接權(quán)值:
式中:為增益函數(shù),隨著時(shí)間逐漸減小;
5) 選取另一個(gè)學(xué)習(xí)模式提供給網(wǎng)絡(luò),返回步驟3),直到全部的輸入模式都提供給網(wǎng)絡(luò);
6) 令, 返回步驟2), 直至為止。
由SOM網(wǎng)絡(luò)的工作原理可以看出,標(biāo)準(zhǔn)SOM網(wǎng)絡(luò)學(xué)習(xí)速率在遞減過程中采用線性遞減的方式,這將導(dǎo)致網(wǎng)絡(luò)收斂速度慢,在數(shù)據(jù)量比較大的情況下就會(huì)導(dǎo)致網(wǎng)絡(luò)聚類結(jié)果不穩(wěn)定甚至發(fā)散。因此可以將改進(jìn)學(xué)習(xí)率遞減方式作為改進(jìn)SOM網(wǎng)絡(luò)的一個(gè)方向。
2.1 神經(jīng)網(wǎng)絡(luò)的改進(jìn)
實(shí)驗(yàn)證明利用標(biāo)準(zhǔn)的自組織特征映射神經(jīng)網(wǎng)絡(luò)對(duì)分類的效果不是很理想,因?yàn)樵撍惴▽?duì)學(xué)習(xí)速率調(diào)整只采用線性遞減,聚類的收斂速度慢,而且對(duì)鄰域也只采用正方形或圓形域,造成權(quán)值調(diào)整時(shí),鄰域內(nèi)所有神經(jīng)元都同樣激活,所以最終聚類效果不好,因此要想辦法從改進(jìn)學(xué)習(xí)率、鄰域等方面來提高網(wǎng)絡(luò)的性能。
將網(wǎng)絡(luò)的學(xué)習(xí)過程分為2個(gè)階段,分別為快學(xué)習(xí)階段和調(diào)整階段,在快學(xué)習(xí)階段中,學(xué)
習(xí)速率采用冪函數(shù)遞減的方式,聚類的效果較好,同時(shí)收斂的速度快,所采用的遞減方式為
時(shí)收斂的速度快,所采用的遞減方式為:
式中:為常數(shù),一般為0.05
同時(shí)根據(jù)網(wǎng)絡(luò)學(xué)習(xí)時(shí)神經(jīng)元間相互作用曲線,側(cè)反饋的強(qiáng)度與鄰域內(nèi)神經(jīng)元i同獲勝神經(jīng)元C的距離有關(guān), 典型的Gauss函數(shù)[3]最適合作為鄰域函數(shù),如式(3)所示:
式中:為鄰域的有效寬度,而為競爭層神經(jīng)元間的距離,對(duì)維元素其距離公式如下:
式中:分別表示神經(jīng)元間在陣列上的坐標(biāo),并且采用冪函數(shù)遞減
式中:參數(shù)一般取0.5
這樣在快學(xué)習(xí)階段學(xué)習(xí)率應(yīng)遞減較快,可采用冪函數(shù)形式,鄰域從較大值遞減為較小值,在調(diào)整階段,網(wǎng)絡(luò)學(xué)習(xí)集中對(duì)較小范圍內(nèi)的神經(jīng)元的連接權(quán)值進(jìn)行調(diào)整,其學(xué)習(xí)率遞減緩慢,可采用線性函數(shù)形式,鄰域值從較大值緩慢減小為0,即只包含獲勝神經(jīng)元。
pid控制相關(guān)文章:pid控制原理
評(píng)論