AI駕臨人間 四大芯片流派華山論劍
隨著AI產(chǎn)業(yè)快速突破,各大公司在AI領域的人才動向也在引起極大關注,你來我往、歸去來兮,AI江湖上大有一片血雨腥風之勢。當然,AI領軍人物的變動,會對具體公司業(yè)務造成影響。但從整個行業(yè)來看,人才流動的頻繁,反倒有可能促進產(chǎn)業(yè)的整體進程。
本文引用地址:http://www.ex-cimer.com/article/201704/346166.htm不信你翻翻歷史。AI這門功夫自1956年問世以來,至今已經(jīng)歷60年風風雨雨,一直是流派眾多,難學難練,沒有大成。
難學,是因為必須要掌握一種叫做“算法”的神功;難練,是因為需要有足夠算力,能夠處理數(shù)據(jù)樣本,訓練機器。
幾十年來,一直是有算法沒算力,甚至于有人認為,人工智能就是一個科幻,就是小說家跟人類開的一個玩笑而已。誰也沒想到,進入21世紀后算力大爆炸。引發(fā)了整個AI產(chǎn)業(yè)開天辟地般的變化。
其中,算法上升為天——深度學習,分成DBN,CNN,BP,RBM等等諸多分支,其中佼佼者當屬CNN(convolutional neural networks),人稱卷積神經(jīng)網(wǎng)絡,應用廣泛。
算力,下降為地——AI芯片。各種芯片如雨后春筍涌現(xiàn),拿過來訓練機器,得心應手啊。
廟堂之上也為AI駕臨人間雀躍不已。世界各國意識到人工智能的重要性,紛紛簞食壺漿,以迎AI。
聯(lián)合國于2016年發(fā)布告示,召集人類討論機器人的制造和使用如何促進人工智能的進步,以及可能帶來的社會與倫理問題。
美國政府于2016年連續(xù)頒發(fā)三道金牌:《美國國家人工智能研發(fā)戰(zhàn)略計劃》、《為人工智能的未來做好準備》、《人工智能、自動化與經(jīng)濟報告》,宣稱加入人工智能教派,并且描繪了此舉能帶來的種種美好的前景。
英國政府見此立即照方抓藥,刊發(fā)了《機器人技術和人工智能》報告,詳細的闡述英國的機器人技術與AI的親密關系。
有算法有算力,天地已定。有政策有戰(zhàn)略,和風細雨。正是產(chǎn)業(yè)萌芽,草長鶯飛,欣欣向榮的時刻。人才的流動正是產(chǎn)業(yè)加速的信號。
書歸正傳。芯片定義了產(chǎn)業(yè)鏈和生態(tài)圈的基礎計算架構(gòu),正如CPU是IT產(chǎn)業(yè)的核心一樣,芯片也是人工智能產(chǎn)業(yè)的核心。
話說天下AI芯片共分四大流派:
GPU,目前銳氣正盛,恰似東邪,憑借并行計算形成先發(fā)優(yōu)勢。
FPGA,蟄伏北方,正在暗地里合縱連橫,大有號令群雄的勢頭,恰似丐幫。
ASIC,割據(jù)南方,占領了大片市場,參與的公司林立。
類腦芯片,這個更“邪性”,打算直接復制大腦,也暗藏著問鼎中原的野心。
根據(jù)互聯(lián)網(wǎng)公開發(fā)布信息,今年,四大流派已經(jīng)派出幾十路高手,參與華山論劍,這些高手均屬于芯片設計期高手。
這些高手都有什么特點?誰能逐鹿中原?下文一一分析。
GPU一派
市場上名氣最大的應該是GPU一派。GPU也稱視覺處理器,專門用于圖像及相關處理的芯片。
2012年,Alex Krizhevsky,多倫多大學的博士研究生,憑此在ImageNet大賽上奪下了2012屆的冠軍。Alex提出了一個奇妙的模型,僅憑借兩個GPU就取得了訓練深層神經(jīng)網(wǎng)絡的極佳效果。江湖頓時為之轟動,于是引發(fā)了GPU訓練神經(jīng)網(wǎng)絡的風潮。要知道,AI領域過去曾用CPU處理數(shù)據(jù),但CPU效力太低。
當年,谷歌曾經(jīng)花費巨資購買1.6萬個處理器,堆成谷歌大腦,峰值功耗在10萬瓦以上,占地面積數(shù)十平方米。試問天下,有幾人能玩的起1.6萬個處理器?
隨著 AlexNet的劃時代論文橫空出世,于是GPU 在服務器端橫掃天下。
有人會問,CPU和GPU,都是處理器,兩者有什么不同?
與CPU相比,GPU 出現(xiàn)得遠比 CPU 晚,但并行計算能力能卻常令CPU望塵莫及。并行計算是相對于串行計算來說的。要知道,自計算機誕生以來,電腦編程幾乎一直都是串行計算,絕大多數(shù)的程序只存在一個進程或線程,好比一個人只能先吃飯再看聊天。
但更多人喜歡邊吃飯邊聊天怎么辦?遇到這類問題,串行計算就傻眼了。并行計算一次可執(zhí)行多個指令的算法,能夠完美解決吃飯聊天難題。解決方式可分為時間上的并行和空間上的并行。時間上的并行就是指流水線技術,而空間上的并行則是指用眾多個處理器并發(fā)的執(zhí)行計算。
深度學習所依賴的是神經(jīng)系統(tǒng)網(wǎng)絡,通常網(wǎng)絡越深,需要的訓練時間越長。對于一些網(wǎng)絡結(jié)構(gòu)來說,如果使用串行的X86 處理器來訓練的話,可能需要幾個月、甚至幾年,因此必須要使用并行甚至是異構(gòu)并行的方法,才有可能讓訓練時間變得可以接受。
在當前的人工智能芯片領域,GPU的應用領域不容小覷,據(jù)Jon Peddie Research(簡稱JPR)市場調(diào)研公司統(tǒng)計,在2008至2015年期間,除了2008年GPU市場規(guī)模稍有下降,其余年份全球獨立顯卡的出貨量和銷售額都呈現(xiàn)出明顯的上升趨勢,并且在2012至2015年有加速上升的表現(xiàn)。
GPU領域只有兩大公司,一是英偉達,占市場份額約7成,另一位則是萬年老二AMD,占市場份額約3成。
從GPU用戶數(shù)量來看,根據(jù)英偉達2016年的財務報告,相比2013年的100家,2014年的1549家,2015年已有3409家機構(gòu)或企業(yè)使用英偉達的GPU產(chǎn)品,從事人工智能的研究。這些企業(yè)和機構(gòu)包括各大高等院校的人工智能實驗室,互聯(lián)網(wǎng)企業(yè),軍事企業(yè)等。
AMD雖然落后于英偉達,但2016年的市場份額已呈現(xiàn)出上升趨勢,在發(fā)布了代號Vega織女星的GPU芯片,市場一片叫好,未來可能有繼續(xù)上升的趨勢。
不足的是,GPU 很費電(比如高端顯卡動輒200W+),一旦開啟,散熱就成了麻煩事。
評論