人工智能、機器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)之間是什么樣的關(guān)系?
最近很長的一段時間,人工智能的熱度都維持在一定的高度。但是大家在關(guān)注或研究人工智能領(lǐng)域的時候,總是會遇到這樣的幾個關(guān)鍵詞:深度學(xué)習(xí)、機器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)。那他們之間到底是什么樣的關(guān)系呢?
本文引用地址:http://www.ex-cimer.com/article/201806/381185.htm先說人工智能,人工智能是在1956年一個叫達特茅斯會議上提出的。更準確的說是1956年學(xué)者們在會議上將他們確定為人工智能,其實關(guān)于其具體的一些研究,早就已經(jīng)開始了。
所以人工智能已經(jīng)是有60多年歷史的一個領(lǐng)域。為什么最近幾年人工智能才逐漸進入大眾視野呢?其實,這幾年的人工智能浪潮已經(jīng)是人工智能的第三次熱度高漲,并遠遠超過了之前的熱度。第一次和第二次浪潮都消失在歷史的長河里,他們在那個年代都遇到了自己的問題,比如第一次是因為在完美的完成了一些人工智能項目后,遇到更復(fù)雜的需求時卻被發(fā)現(xiàn)當時的人工智能技術(shù),并沒有能力將其解決,導(dǎo)致了世界主力研究的國家中斷了人工智能的研究經(jīng)費。第一次發(fā)展因為缺錢而中止了,本質(zhì)上還是技術(shù)遇到了瓶頸。第二次浪潮時候,因為專家系統(tǒng)為很多企業(yè)帶來非常大的作用和效益,人工智能又準備大力發(fā)展的時候,被第四代計算機的強有力發(fā)展擠占的沒有空間,幾乎絕大多數(shù)的資金和人力都投入到了第四代計算機的發(fā)展行列中去。
除了外部因素的影響,人工智能本身也存在一些問題,在早期最核心的兩個問題就是數(shù)據(jù)和算力,因為當時其實有非常不錯的擬合算法模型,但是卻被戴上了過擬合的帽子,就是模型維度多,但是卻沒有詳盡和足量數(shù)據(jù)支持。
其實在1956年后,人工智能發(fā)展的速度非常快,解決了業(yè)內(nèi)很多的問題,讓當時的科學(xué)家以為,以當時的發(fā)展速度,機器可能在20年左右達到人類的水平?,F(xiàn)在看,當時的科學(xué)巨頭還是過度樂觀了,直到60年后的今天,我們還是在弱人工智能領(lǐng)域摸爬滾打。
圖 1人工智能產(chǎn)業(yè)發(fā)展歷程
講的有點遠了,回到今天的主題,人工智能,機器學(xué)習(xí),神經(jīng)網(wǎng)絡(luò),深度學(xué)習(xí)之間的關(guān)系。
人工智能這個概念可能是個大坑,把很多人都弄迷糊了。簡單點解釋,人工智能就是實現(xiàn)人類可以做的事情,這是目的。其中有很多細節(jié),其中最核心,我們可以理解為人的大腦的部分,就是機器學(xué)習(xí)。
圖 2人工智能關(guān)系圖
飲鹿網(wǎng)(innov100)產(chǎn)業(yè)研究員認為機器學(xué)習(xí)(machine learning)可以簡單的理解為實現(xiàn)人工智能的核心方法。他不是一個單一的方法,而是眾多算法的合集。沒錯,人工智能的核心就是由各種算法作為支撐的。不過,現(xiàn)在的機器學(xué)習(xí)更容易理解成,簡單的半人工智能算法,比如我們在逛某寶的時候,總是會有欄目推薦各種商品,或者你瀏覽了某些商品后,你會發(fā)現(xiàn)首頁連默認搜索詞都變成了你瀏覽的商品的關(guān)鍵詞,這里面就融合了基于機器學(xué)習(xí)的推薦算法,而且在后臺還為用戶畫像,更加準確的預(yù)測你想要購買的商品。其實這樣的技術(shù)實現(xiàn)背后還是有一定問題的,比如你的隱私,如果你被預(yù)測的很準確,那你還有什么隱私可言,你所有的操作都可能悄悄的出賣了你。
神經(jīng)網(wǎng)絡(luò)(NeuralNetwork)簡單說就是機器學(xué)習(xí)眾多算法中的一類,設(shè)計的時候就是模仿人腦的處理方式,希望其可以按人類大腦的邏輯運行(盡管目前來說對人腦的研究仍不夠透徹)。神經(jīng)網(wǎng)絡(luò)已經(jīng)有很多年的歷史,但現(xiàn)在基本很少聽到了。飲鹿網(wǎng)(innov100)產(chǎn)業(yè)研究員認為神經(jīng)網(wǎng)絡(luò)可以簡單的分為單層,雙層,以及多層網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)在之前有非常多的問題,層數(shù)無法深入過多,有太多的參數(shù)需要調(diào)節(jié),樣本數(shù)據(jù)量過小等問題??傊?,其之前是一門并不被看好的技術(shù)。直到2006年,Hinton在《Science》和相關(guān)期刊上發(fā)表了論文,首次提出了“深度信念網(wǎng)絡(luò)”的概念。
深度學(xué)習(xí)(DeepLearning)其實算是神經(jīng)網(wǎng)絡(luò)的延伸,從概念被提出,逐漸的在人工智能領(lǐng)域大顯身手。尤其是在2012年,其在圖像識別領(lǐng)域獲得驚人的成績。和神經(jīng)網(wǎng)絡(luò)一樣,深度學(xué)習(xí)也是一個算法的集合,只不過這里的算法都是基于多層神經(jīng)網(wǎng)絡(luò)的新的算法。他是一種新的算法和結(jié)構(gòu),新的網(wǎng)絡(luò)結(jié)構(gòu)中最著名的就是CNN,它解決了傳統(tǒng)較深的網(wǎng)絡(luò)參數(shù)太多,很難訓(xùn)練的問題,使用了“局部感受野”和“權(quán)植共享”的概念,大大減少了網(wǎng)絡(luò)參數(shù)的數(shù)量。關(guān)鍵是這種結(jié)構(gòu)確實很符合視覺類任務(wù)在人腦上的工作原理。新的方法就多了:新的激活函數(shù):ReLU,新的權(quán)重初始化方法(逐層初始化,XAVIER等),新的損失函數(shù),新的防止過擬合方法(Dropout, BN等)。這些方面主要都是為了解決傳統(tǒng)的多層神經(jīng)網(wǎng)絡(luò)的一些不足:梯度消失,過擬合等。
由于其解決了早期人工智能的一些遺留問題,在大數(shù)據(jù)和大算力的加持下,使得人工智能重新進入到大眾的視野。并在視覺識別,圖像識別,語音識別,棋類AI中成為核心技術(shù)。所以現(xiàn)在深度學(xué)習(xí)就是新的神經(jīng)網(wǎng)絡(luò),其本質(zhì)仍然是神經(jīng)網(wǎng)絡(luò),但是又區(qū)別于舊的神經(jīng)網(wǎng)絡(luò)。另外現(xiàn)在基本很少在討論神經(jīng)網(wǎng)絡(luò)了。
希望大家看完文章之后,可以理解人工智能、機器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)之間的關(guān)系了。另外,在此基礎(chǔ)上繼續(xù)延伸的話,還有遷移學(xué)習(xí)和強化學(xué)習(xí),這些會在之后的文章繼續(xù)探索。
評論