<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          人工智能之PCA算法

          作者: 時(shí)間:2018-06-19 來源:網(wǎng)絡(luò) 收藏

            算法本質(zhì):

          本文引用地址:http://www.ex-cimer.com/article/201806/381803.htm

            算法本質(zhì)就是找一些投影方向,使得數(shù)據(jù)在這些投影方向上的方差最大,而且這些投影方向是相互正交的。這其實(shí)就是找新的正交基的過程,計(jì)算原始數(shù)據(jù)在這些正交基上投影的方差,方差越大,就說明在對(duì)應(yīng)正交基上包含了更多的信息量。原始數(shù)據(jù)協(xié)方差矩陣的特征值越大,對(duì)應(yīng)的方差越大,在對(duì)應(yīng)的特征向量上投影的信息量就越大。反之,如果特征值較小,則說明數(shù)據(jù)在這些特征向量上投影的信息量很小,可以將小特征值對(duì)應(yīng)方向的數(shù)據(jù)刪除,從而達(dá)到了降維的目的。

            把可能具有相關(guān)性的高維變量合成線性無關(guān)的低維變量,稱為主成分( principal components)。新的低維數(shù)據(jù)集會(huì)盡可能保留原始數(shù)據(jù)的變量。

            簡(jiǎn)而言之,PCA本質(zhì)上是將方差最大的方向作為主要特征,并且在各個(gè)正交方向上將數(shù)據(jù)“離相關(guān)”,也就是讓它們?cè)诓煌环较蛏蠜]有相關(guān)性。



            PCA算法中術(shù)語:

            1、樣本“信息量”

            樣本的“信息量”指的是樣本在特征方向上投影的方差。方差越大,則樣本在該特征上的差異就越大,因此該特征就越重要。在分類問題里,樣本的方差越大,越容易將不同類別的樣本區(qū)分開。

            2、方差

            希望投影后投影值盡可能分散,而這種分散程度,可以用數(shù)學(xué)上的方差來表述。在統(tǒng)計(jì)描述中,方差用來計(jì)算每一個(gè)變量(觀察值)與總體均數(shù)之間的差異。此處,一個(gè)字段的方差可以看做是每個(gè)元素與字段均值的差的平方和的均值,即:



            3、協(xié)方差

            對(duì)于二維降成一維的問題來說,找到使得方差最大的方向就可以了。但是對(duì)于更高維的問題,需要用到協(xié)方差來表示其相關(guān)性。即:



            PCA理論基礎(chǔ):

            PCA理論基礎(chǔ)如下:

            1)最大方差理論。

            2)最小錯(cuò)誤理論。

            3)坐標(biāo)軸相關(guān)度理論。

            PCA算法流程:

            1)去平均值,即每一位特征減去各自的平均值;

            2)計(jì)算協(xié)方差矩陣;

            3)計(jì)算協(xié)方差矩陣的特征值與特征向量;

            4)對(duì)特征值從大到小排序;

            5)保留最大的個(gè)特征向量;

            6)將數(shù)據(jù)轉(zhuǎn)換到個(gè)特征向量構(gòu)建的新空間中。



            PCA降維準(zhǔn)則:

            1) 最近重構(gòu)性:樣本集中所有點(diǎn),重構(gòu)后的點(diǎn)距離原來的點(diǎn)的誤差之和最小。

            2) 最大可分性:樣本在低維空間的投影盡可能分開。



            PCA算法優(yōu)點(diǎn):

            1)使得數(shù)據(jù)集更易使用;

            2)降低算法的計(jì)算開銷;

            3)去除噪聲;

            4)使得結(jié)果容易理解;

            5)完全無參數(shù)限制。

            PCA算法缺點(diǎn):

            1) 如果用戶對(duì)觀測(cè)對(duì)象有一定的先驗(yàn)知識(shí),掌握了數(shù)據(jù)的一些特征,卻無法通過參數(shù)化等方法對(duì)處理過程進(jìn)行干預(yù),可能會(huì)得不到預(yù)期的效果,效率也不高;

            2) 特征值分解有一些局限性,比如變換的矩陣必須是方陣;

            3) 在非高斯分布情況下,PCA方法得出的主元可能并不是最優(yōu)的。

            PCA算法應(yīng)用:

            PCA算法已經(jīng)被廣泛的應(yīng)用于高維數(shù)據(jù)集的探索與可視化,還可以用于數(shù)據(jù)壓縮,數(shù)據(jù)預(yù)處理等領(lǐng)域。在機(jī)器學(xué)習(xí)當(dāng)中應(yīng)用很廣,比如圖像,語音,通信的分析處理。PCA算法最主要的用途在于“降維”,去除掉數(shù)據(jù)的一些冗余信息和噪聲,使數(shù)據(jù)變得更加簡(jiǎn)單高效,提高其他機(jī)器學(xué)習(xí)任務(wù)的計(jì)算效率。

            結(jié)語:

            PCA是一種常用的數(shù)據(jù)分析方法。PCA通過線性變換將原始數(shù)據(jù)變換為一組各維度線性無關(guān)的表示,可用于識(shí)別和提取數(shù)據(jù)的主要特征分量,通過將數(shù)據(jù)坐標(biāo)軸旋轉(zhuǎn)到數(shù)據(jù)角度上那些最重要的方向(方差最大);然后通過特征值分析,確定出需要保留的主成分個(gè)數(shù),舍棄其他非主成分,從而實(shí)現(xiàn)數(shù)據(jù)的降維。降維使數(shù)據(jù)變得更加簡(jiǎn)單高效,從而實(shí)現(xiàn)提升數(shù)據(jù)處理速度的目的,節(jié)省大量的時(shí)間和成本。降維也成為了應(yīng)用非常廣泛的數(shù)據(jù)預(yù)處理方法。PCA算法已經(jīng)被廣泛的應(yīng)用于高維數(shù)據(jù)集的探索與可視化,還可以用于數(shù)據(jù)壓縮,數(shù)據(jù)預(yù)處理,圖像,語音,通信的分析處理等領(lǐng)域。


          上一頁 1 2 下一頁

          關(guān)鍵詞: 人工智能 PCA

          評(píng)論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();