<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > EDA/PCB > 設(shè)計(jì)應(yīng)用 > Matlab語言的Neural Network Toolbox 及其在同步中

          Matlab語言的Neural Network Toolbox 及其在同步中

          作者: 時(shí)間:2012-09-11 來源:網(wǎng)絡(luò) 收藏

          子對象結(jié)構(gòu)中包含了網(wǎng)絡(luò)單個(gè)對象的信息。神經(jīng)元的每一層有相同的傳輸函數(shù)net.transferFcn和網(wǎng)絡(luò)輸入函數(shù)net.netInputFcn,對于創(chuàng)建感知機(jī)采用hardlim和netsum函數(shù)。如果神經(jīng)元要有不同的傳輸函數(shù),則將設(shè)計(jì)不同的層以滿足要求。參數(shù)net.Input-Weights和net.layerWeights描述了被應(yīng)用的訓(xùn)練函數(shù)以及它們的參數(shù)。

          接下來敘述訓(xùn)練函數(shù)、初始化函數(shù)和性能函數(shù)。

          trainFcn和adaptFcn是2種不同的訓(xùn)練方式,分別指批處理方式和增加方式或稱在線方式。通過設(shè)置trainFcn的參數(shù),就可以告訴哪種運(yùn)算法被使用;在運(yùn)用循環(huán)順序增加方式時(shí),多用trainc函數(shù)。ANN工具箱包含大約20個(gè)訓(xùn)練函數(shù)。性能函數(shù)用來測定ANN完成規(guī)定任務(wù)時(shí)的性能。對于感知機(jī),它的平均差錯(cuò)性能測定用函數(shù)mae;對于線性衰退系統(tǒng),它的均方根差錯(cuò)性能測定用函數(shù)mae。initFcn函數(shù)用來初始化網(wǎng)絡(luò)的權(quán)重和偏置。神經(jīng)網(wǎng)絡(luò)工具箱包含在nnet目錄中,鍵入help nnet可得到幫助主題。如果要將這些函數(shù)替換為工具箱里的其他函數(shù)或者是自己編寫的函數(shù),只需把這些函數(shù)名配置新的參數(shù)即可,例如:

          通過改變參數(shù),可以改變上面提到的函數(shù)的默認(rèn)行為。最經(jīng)常用到的函數(shù)的參數(shù)就是:trainParam,格式:net.trainParam.epochs,用來設(shè)置運(yùn)算的時(shí)間點(diǎn)的最大數(shù)目;格式:net.trainParam.show,用來設(shè)置性能測定間隔的時(shí)間點(diǎn)的數(shù)目??梢酝ㄟ^輸入幫助help獲得更多信息。

          網(wǎng)絡(luò)的權(quán)重和偏置也被存儲在下面的結(jié)構(gòu)體里面:

          IW(i,j)部分是一個(gè)二維的元胞矩陣,存儲輸入j與網(wǎng)絡(luò)層i的連接的權(quán)重。LW(i,j)部分,用來存儲網(wǎng)絡(luò)層j和網(wǎng)絡(luò)層i間連接的權(quán)重。元胞數(shù)組b存儲每一層的偏置向量。

          2.2 模式分類

          如果一個(gè)問題可以被分解為多個(gè)模式級別,則可以用神經(jīng)網(wǎng)絡(luò)來解決這一問題。在大多數(shù)情況下,利用神經(jīng)網(wǎng)絡(luò)解決問題是可能的。神經(jīng)網(wǎng)絡(luò)的函數(shù)用來接收輸入模式,然后輸出適合這一級別的模式。

          這方面的例子由產(chǎn)生和訓(xùn)練一個(gè)感知機(jī)對屬于3個(gè)不同等級的點(diǎn)進(jìn)行正確的分級。神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù)被定義如下:

          X矩陣的每一行代表一個(gè)采樣點(diǎn),采樣點(diǎn)的等級用矩陣C的相應(yīng)元素值來描述。因?yàn)橄胍獙?個(gè)不同的等級進(jìn)行區(qū)分,所以需要3個(gè)感知機(jī),每一個(gè)等級有1個(gè)。相應(yīng)的目標(biāo)函數(shù)描述如下:

          2.3 訓(xùn)練與泛化

          神經(jīng)網(wǎng)絡(luò)是模式分級的,但并不是所有的模式分級都指的是神經(jīng)網(wǎng)絡(luò)。下面將講述神將神經(jīng)網(wǎng)絡(luò)與其他分級的一些區(qū)別。它們的主要區(qū)別在2個(gè)屬性上:學(xué)習(xí)與泛化。

          在使用電子存儲器解決數(shù)字分級器時(shí),管理存儲器,特別是完成輸入的合并方面,花費(fèi)很大精力。要求能夠通過給它較少數(shù)目的簡單且具有正確響應(yīng)的例子來解決問題,這就指的是學(xué)習(xí)或稱為訓(xùn)練:系統(tǒng)學(xué)習(xí)識別默寫特定的模式,然后給出正確的輸出響應(yīng)。

          某種程度上,這一部分已經(jīng)被如今的電子存儲器實(shí)現(xiàn)了。首先初始化設(shè)置存儲器的所有值為0,然后,調(diào)用范例對存儲器的值進(jìn)行訓(xùn)練,將結(jié)果存入存儲器的相應(yīng)位置。在相應(yīng)的位置用1替換原來的0。1顯示了相應(yīng)的輸入模式等級。訓(xùn)練階段結(jié)束后,進(jìn)入實(shí)際操作。如果這些模式與訓(xùn)練階段的模式是一樣的,則輸出結(jié)果就是正確的。

          理想的,器件應(yīng)該給出正確的響應(yīng),即使有些例子沒有明確的顯示。這部分被稱為泛化。系統(tǒng)能夠推斷出例子給的不同模式等級的屬性。神經(jīng)網(wǎng)絡(luò)能夠做這種事,如果他們被正確操作,他們將對那些在訓(xùn)練階段學(xué)習(xí)的模式非常相似的模式做出響應(yīng)。那么,對于數(shù)字分級器來說,這意味著神經(jīng)網(wǎng)絡(luò)被數(shù)據(jù)范例進(jìn)行訓(xùn)練,它就能正確地區(qū)分相似的數(shù)據(jù),而以前這些都是次要的。這里設(shè):

          c++相關(guān)文章:c++教程




          關(guān)鍵詞: Network Toolbox Matlab Neural

          評論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();