<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 智能計(jì)算 > 設(shè)計(jì)應(yīng)用 > 隨機(jī)過程在數(shù)據(jù)科學(xué)和深度學(xué)習(xí)中有哪些應(yīng)用?

          隨機(jī)過程在數(shù)據(jù)科學(xué)和深度學(xué)習(xí)中有哪些應(yīng)用?

          作者:雷鋒字幕組 時(shí)間:2019-08-20 來源:雷鋒網(wǎng) 收藏
          編者按:機(jī)器學(xué)習(xí)的主要應(yīng)用之一是對隨機(jī)過程建模。

          隱馬爾科夫模型

          本文引用地址:http://www.ex-cimer.com/article/201908/403911.htm

          隱馬爾可夫模型都是關(guān)于認(rèn)識(shí)序列信號的。它們在數(shù)據(jù)科學(xué)領(lǐng)域有大量應(yīng)用,例如:

          ●計(jì)算生物學(xué)。

          ●寫作/語音識(shí)別。

          ●自然語言處理(NLP)。

          ●強(qiáng)化學(xué)習(xí)

          HMMs是一種概率圖形模型,用于從一組可觀察狀態(tài)預(yù)測隱藏(未知)狀態(tài)序列。

          這類模型遵循馬爾可夫過程假設(shè):

          “鑒于我們知道現(xiàn)在,所以未來是獨(dú)立于過去的"

          因此,在處理隱馬爾可夫模型時(shí),我們只需要知道我們的當(dāng)前狀態(tài),以便預(yù)測下一個(gè)狀態(tài)(我們不需要任何關(guān)于前一個(gè)狀態(tài)的信息)。

          要使用HMMs進(jìn)行預(yù)測,我們只需要計(jì)算隱藏狀態(tài)的聯(lián)合概率,然后選擇產(chǎn)生最高概率(最有可能發(fā)生)的序列。

          為了計(jì)算聯(lián)合概率,我們需要以下三種信息:

          ●初始狀態(tài):任意一個(gè)隱藏狀態(tài)下開始序列的初始概率。

          ●轉(zhuǎn)移概率:從一個(gè)隱藏狀態(tài)轉(zhuǎn)移到另一個(gè)隱藏狀態(tài)的概率。

          ●發(fā)射概率:從隱藏狀態(tài)移動(dòng)到觀測狀態(tài)的概率

          舉個(gè)簡單的例子,假設(shè)我們正試圖根據(jù)一群人的穿著來預(yù)測明天的天氣是什么(圖5)。

          在這種例子中,不同類型的天氣將成為我們的隱藏狀態(tài)。晴天刮風(fēng)下雨和穿的衣服類型將是我們可以觀察到的狀態(tài)(如,t恤、長褲和夾克)。初始狀態(tài)是這個(gè)序列的起點(diǎn)。轉(zhuǎn)換概率,表示的是從一種天氣轉(zhuǎn)換到另一種天氣的可能性。最后,發(fā)射概率是根據(jù)前一天的天氣,某人穿某件衣服的概率。

          圖5:隱馬爾可夫模型示例[6]

          使用隱馬爾可夫模型的一個(gè)主要問題是,隨著狀態(tài)數(shù)的增加,概率和可能狀態(tài)的數(shù)量呈指數(shù)增長。為了解決這個(gè)問題,可以使用維特比算法。

          如果您對使用HMMs和生物學(xué)中的Viterbi算法的實(shí)際代碼示例感興趣,可以在我的Github代碼庫中找到它。

          的角度來看,觀察值組成了我們的訓(xùn)練數(shù)據(jù),隱藏狀態(tài)的數(shù)量組成了我們要調(diào)優(yōu)的超參數(shù)。

          中HMMs最常見的應(yīng)用之一是agent-based情景,如強(qiáng)化學(xué)習(xí)(圖6)。

          圖6:強(qiáng)化學(xué)習(xí)[7]中的HMMs

          高斯過程

          高斯過程是一類完全依賴自協(xié)方差函數(shù)的平穩(wěn)零均值隨機(jī)過程。這類模型可用于回歸和分類任務(wù)。

          高斯過程最大的優(yōu)點(diǎn)之一是,它們可以提供關(guān)于不確定性的估計(jì),例如,給我們一個(gè)算法確定某個(gè)項(xiàng)是否屬于某個(gè)類的確定性估計(jì)。

          為了處理嵌入一定程度上的不確定性的情況,通常使用概率分布。

          一個(gè)離散概率分布的簡單例子是擲骰子。

          想象一下,現(xiàn)在你的一個(gè)朋友挑戰(zhàn)你擲骰子,你擲了50個(gè)trows。在擲骰子公平的情況下,我們期望6個(gè)面中每個(gè)面出現(xiàn)的概率相同(各為1/6)。如圖7所示。

          圖7:擲骰子公平的概率分布

          無論如何,你玩得越多,你就越可以看到到骰子總是落在相同的面上。此時(shí),您開始考慮骰子可能是不公平的,因此您改變了關(guān)于概率分布的最初信念(圖8)。

          圖8:不公平骰子的概率分布

          這個(gè)過程被稱為貝葉斯推理。

          貝葉斯推理是我們在獲得新證據(jù)的基礎(chǔ)上更新自己對世界的認(rèn)知的過程。

          我們從一個(gè)先前的信念開始,一旦我們用全新的信息更新它,我們就構(gòu)建了一個(gè)后驗(yàn)信念。這種推理同樣適用于離散分布和連續(xù)分布。

          因此,高斯過程允許我們描述概率分布,一旦我們收集到新的訓(xùn)練數(shù)據(jù),我們就可以使用貝葉斯法則(圖9)更新分布。

          圖9:貝葉斯法則[8]

          自回歸移動(dòng)平均過程

          自回歸移動(dòng)平均(ARMA)過程是一類非常重要的分析時(shí)間序列的隨機(jī)過程。ARMA模型的特點(diǎn)是它們的自協(xié)方差函數(shù)只依賴于有限數(shù)量的未知參數(shù)(對于高斯過程是不可能的)。

          縮略詞ARMA可以分為兩個(gè)主要部分:

          ●自回歸=模型利用了預(yù)先定義的滯后觀測值與當(dāng)前滯后觀測值之間的聯(lián)系。

          ●移動(dòng)平均=模型利用了殘差與觀測值之間的關(guān)系。

          ARMA模型利用兩個(gè)主要參數(shù)(p, q),分別為:

          ●p=滯后觀測次數(shù)。

          ●q=移動(dòng)平均窗口的大小。

          ARMA過程假設(shè)一個(gè)時(shí)間序列在一個(gè)常數(shù)均值附近均勻波動(dòng)。如果我們試圖分析一個(gè)不遵循這種模式的時(shí)間序列,那么這個(gè)序列將需要被差分,直到分割后的序列具有平穩(wěn)性。

          參考文獻(xiàn)

          [1] M C Escher, “Smaller and Smaller” — 1956. https://www.etsy.com/listing/288848445/m-c-escher-print-escher-art-smaller-and

          [2]  中大數(shù)定律的簡要介紹。Machine Learning Mastery, Jason Brownlee. https://machinelearningmastery.com/a-gentle-introduction-to-the-law-of-large-numbers-in-machine-learning/

          [3]  正態(tài)分布,二項(xiàng)分布,泊松分布 , Make Me Analyst. http://makemeanalyst.com/wp-content/uploads/2017/05/Poisson-Distribution-Formula.png

          [4] 通用維基百科. Accessed at: https://commons.wikimedia.org/wiki/File:Random_walk_25000.gif

          [5]  數(shù)軸是什么?Mathematics Monste. https://www.mathematics-monster.com/lessons/number_line.html

          [6] 機(jī)器學(xué)習(xí)算法: SD (σ)- 貝葉斯算法. Sagi Shaier, Medium. https://towardsdatascience.com/ml-algorithms-one-sd-%CF%83-bayesian-algorithms-b59785da792a

          [7]  DeepMind的正在自學(xué)跑酷,結(jié)果非常令人驚訝。The Verge, James Vincent. https://www.theverge.com/tldr/2017/7/10/15946542/deepmind-parkour-agent-reinforcement-learning

          [8]  為數(shù)據(jù)科學(xué)專業(yè)人員寫的強(qiáng)大的貝葉斯定理介紹。KHYATI MAHENDRU, Analytics Vidhya. Accessed at: https://www.analyticsvidhya.com/blog/2019/06/introduction-powerful-bayes-theorem-data-science/

          via https://towardsdatascience.com/stochastic-processes-analysis-f0a116999e4

          本文轉(zhuǎn)自雷鋒網(wǎng),如需轉(zhuǎn)載請至雷鋒網(wǎng)官網(wǎng)申請授權(quán)。

          原文章地址為隨機(jī)過程在數(shù)據(jù)科學(xué)和深度學(xué)習(xí)中有哪些應(yīng)用?


          上一頁 1 2 下一頁

          評論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();