支持向量回歸機在風(fēng)電系統(tǒng)槳距角預(yù)測中的應(yīng)用
在風(fēng)力發(fā)電系統(tǒng)中,隨著風(fēng)速的變化,要使輸出功率最佳,需對槳距角進行預(yù)測,從而得到某特定風(fēng)速下的最佳槳距角。支持向量機(Support Vector Machines,SVM)是根據(jù)統(tǒng)計學(xué)理論中最小化原則提出來的,由有限數(shù)據(jù)得到的判別函數(shù),對獨立的測試樣本能夠得到較小的誤差,包括支持向量分類機(Support Vector Classification,SVC)和支持向量回歸機(Support Vector Regression,SVR)。此文用的就是SVR算法,其目的是構(gòu)造一個回歸估計函數(shù),將非線性函數(shù)的回歸估計問題轉(zhuǎn)化為一個具有線性等式約束和線性不等式約束的二次規(guī)劃問題??梢缘玫轿ㄒ坏娜肿顑?yōu)解。此最優(yōu)解,在預(yù)測槳距角中就是最佳槳距角。
1 SVR
1.1 SVR的引入
現(xiàn)有的預(yù)測槳距角算法有基于BP算法和基于LV算法的神經(jīng)網(wǎng)絡(luò),BP算法收斂速度慢、精度低,LV算法泛化能力差,因此,能改變現(xiàn)有算法不足的支持向量機算法應(yīng)運而生。SVM方法最早是針對模式識別問題提出的,隨著對ε不敏感損失函數(shù)的引入,現(xiàn)已推廣應(yīng)用到非線性回歸估計和曲線擬合中,得到了用于曲線擬合的回歸型支持向量機SVR,表現(xiàn)出很好的學(xué)習(xí)效果。
1.2 回歸算法原理
標(biāo)準的SVR算法,分為線性和非線性兩種。SVR的基本思想是:將輸入樣本空間非線性變換到另一個特征空間,在這個特征空間構(gòu)造回歸估計數(shù),這種非線性變換是通過定義適當(dāng)?shù)暮撕瘮?shù)K(xi,xj)來實現(xiàn)的。其中K(xi,xj)=φ(xi)·φ(xj),φ(x)為某一非線性函數(shù)。
假設(shè)給定了訓(xùn)練數(shù)據(jù),{(xi,yi),i=1,2,...,n},xi為學(xué)習(xí)樣本,yi為對應(yīng)的目標(biāo)值。定義線性ε不敏感損失函數(shù)為:
即如果目標(biāo)y值和經(jīng)過學(xué)習(xí)構(gòu)造的回歸估計函數(shù)f(x)的值之間的差別小于ε,則損失等于0。
假設(shè)非線性情形的回歸估計函數(shù)為:
要尋找w、b對,使在式(1)不變的前提下最小化。
同時考慮到當(dāng)約束條件不可實現(xiàn)時將松弛變量引入,這樣最優(yōu)化問題為:
利用拉格朗日乘子法來求解這個約束最優(yōu)化問題,因此構(gòu)造拉格朗日函數(shù)
其中NNSV為標(biāo)準支持向量數(shù)量。由式(7)和式(8)知,盡管通過非線性函數(shù)將樣本數(shù)據(jù)映射到具有高維甚至無窮維的特征空間,但在計算回歸估計函數(shù)時并不需要顯式計算該非線性函數(shù),而只需計算核函數(shù),從而避免高維特征空間引起維數(shù)災(zāi)難問題。
評論