AI芯片彰顯威力:各領(lǐng)域最強算力被巨頭把控
AI 芯片設(shè)計是人工智能產(chǎn)業(yè)鏈的重要一環(huán)。 自 2017 年 5 月以來,各 AI 芯片廠商的新品競相發(fā)布,經(jīng)過一年多的發(fā)展,各環(huán)節(jié)分工逐漸明顯。 AI 芯片的應(yīng)用場景不再局限于云端,部署于智能手機、 安防攝像頭、及自動駕駛汽車等終端的各項產(chǎn)品日趨豐富。 除了追求性能提升外, AI 芯片也逐漸專注于特殊場景的優(yōu)化。
本文引用地址:http://www.ex-cimer.com/article/201810/393278.htm自 2017 年 5 月以來發(fā)布的 AI 芯片一覽
目前, 人工智能產(chǎn)業(yè)鏈中,包括提供 AI 加速核的 IP 授權(quán)商,各種 AI 芯片設(shè)計公司,以及晶圓代工企業(yè)。
按部署的位置來分, AI 芯片可以部署在數(shù)據(jù)中心(云端),和手機,安防攝像頭,汽車等終端上。
按承擔(dān)的任務(wù)來分,可以被分為用于構(gòu)建神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練芯片,與利用神經(jīng)網(wǎng)絡(luò)模型進(jìn)行推斷的推斷芯片。 訓(xùn)練芯片注重絕對的計算能力,而推斷芯片更注重綜合指標(biāo), 單位能耗算力、時延、成本等都要考慮。
訓(xùn)練芯片受算力約束,一般只在云端部署。推斷芯片按照不同應(yīng)用場景,分為手機邊緣推斷芯片、安防邊緣推斷芯片、自動駕駛邊緣推斷芯片。為方便起見,我們也稱它們?yōu)槭謾C AI 芯片、安防 AI 芯片和汽車 AI 芯片。
由于 AI芯片對單位能耗算力要求較高,一般采用 14nm/12nm/10nm等先進(jìn)工藝生產(chǎn)。臺積電目前和 Nvidia、 Xilinx 等多家芯片廠商展開合作,攻堅 7nm AI 芯片。
AI 芯片投資地圖
AI 芯片市場規(guī)模: 未來五年有接近 10 倍的增長, 2022 年將達(dá)到 352 億美元。根據(jù)我們對相關(guān)上市 AI 芯片公司的收入統(tǒng)計,及對 AI 在各場景中滲透率的估算, 2017年 AI 芯片市場規(guī)模已達(dá)到 39.1 億美元,具體情況如下:
2017 年全球數(shù)據(jù)中心 AI 芯片規(guī)模合計 23.6 億美元,其中云端訓(xùn)練芯片市場規(guī)模 20.2億美元,云端推斷芯片 3.4 億美元。
2017 年全球手機 AI 芯片市場規(guī)模 3.7 億美元。
2017 年全球安防攝像頭 AI 芯片市場規(guī)模 3.3 億美元。
2017 年全球自動駕駛 AI 芯片的市場規(guī)模在 8.5 億美元。
AI 芯片市場規(guī)模及競爭格局
Nvidia 在 2017 年時指出,到 2020 年,全球云端訓(xùn)練芯片的市場規(guī)模將達(dá)到 110 億美元,而推斷芯片(云端+邊緣) 的市場規(guī)模將達(dá)到 150 億美元。 Intel 在剛剛結(jié)束的 2018 DCI峰會上,也重申了數(shù)據(jù)業(yè)務(wù)驅(qū)動硬件市場增長的觀點。 Intel 將 2022 年與用于數(shù)據(jù)中心執(zhí)行 AI 加速的 FPGA 的 TAM 預(yù)測,由 70 億美元調(diào)高至 80 億美元。
而同時我們也注意到:
1)手機 SoC 價格不斷上升、 AI 向中端機型滲透都將為行業(yè)創(chuàng)造更廣闊的市場空間。
歷代 Apple 手機芯片成本趨勢
2)安防芯片受益于現(xiàn)有設(shè)備的智能化升級,芯片需求擴大。
自動駕駛算力需求加速芯片升級
3)自動駕駛方面,針對豐田公司提出的算力需求,我們看到當(dāng)下芯片算力與 L5 級自動駕駛還有較大差距。 英飛凌公司給出了各自動駕駛等級中的半導(dǎo)體價值預(yù)測, 可以為我們的 TAM 估算提供參考。
英飛凌對各自動駕駛等級中半導(dǎo)體價值的預(yù)測
結(jié)合以上觀點,及我們對 AI 在各應(yīng)用場景下滲透率的分析,我們預(yù)測:
云端訓(xùn)練芯片市場規(guī)模在 2022 年將達(dá)到 172 億美元, CAGR~54%。
云端推斷芯片市場規(guī)模在 2022 年將達(dá)到 72 億美元, CAGR~84%。
用于智能手機的邊緣推斷芯片市場規(guī)模 2022 年將達(dá)到 38 億美元, CAGR~59%。
用于安防攝像頭的邊緣推斷芯片市場規(guī)模 2022 年將達(dá)到 18 億美元, CAGR~41%。
用于自動駕駛汽車的邊緣推斷芯片市場規(guī)模 2022 年將達(dá)到 52 億美元, CAGR~44%。
云端訓(xùn)練芯片: TPU 很難撼動 Nvidia GPU 的壟斷地位
訓(xùn)練是指通過大量的數(shù)據(jù)樣本,代入神經(jīng)網(wǎng)絡(luò)模型運算并反復(fù)迭代,來獲得各神經(jīng)元“正確”權(quán)重參數(shù)的過程。 CPU 由于計算單元少,并行計算能力較弱,不適合直接執(zhí)行訓(xùn)練任務(wù),因此訓(xùn)練一般采用“CPU+加速芯片”的異構(gòu)計算模式。目前 Nvidia 的 GPU+CUDA計算平臺是最成熟的 AI 訓(xùn)練方案,除此還有:
AI 芯片工作流程
第三方異構(gòu)計算平臺 OpenCL + AMD GPU 或 OpenCL+Intel/Xilinx 的 FPGA。
云計算服務(wù)商自研加速芯片(如 Google 的 TPU) 這兩種方案。各芯片廠商基于不同方案,都推出了針對于云端訓(xùn)練的 AI 芯片。
云端訓(xùn)練芯片對比
在 GPU 之外,云端訓(xùn)練的新入競爭者是 TPU。 Google 在去年正式發(fā)布了其 TPU 芯片,并在二代產(chǎn)品中開始提供對訓(xùn)練的支持,但比較下來, GPU 仍然擁有最強大的帶寬(900GB/s,保證數(shù)據(jù)吞吐量)和極高的深度學(xué)習(xí)計算能力(120 TFLOPS vs. TPUv2 45 TFLOPS),在功耗上也并沒有太大劣勢(TPU 進(jìn)行訓(xùn)練時,引入浮點數(shù)計算,需要逾 200W 的功耗,遠(yuǎn)不及推斷操作節(jié)能)。目前 TPU 只提供按時長付費使用的方式,并不對外直接銷售,市占率暫時也難以和 Nvidia GPU 匹敵。
Intel
雖然深度學(xué)習(xí)任務(wù)主要由 GPU 承擔(dān),但 CPU 目前仍是云計算芯片的主體。 Intel 于 2015年底年收購全球第二大 FPGA 廠商 Altera 以后,也積極布局 CPU+FPGA 異構(gòu)計算助力 AI,并持續(xù)優(yōu)化 Xeon CPU 結(jié)構(gòu)。 2017 年 Intel 發(fā)布了用于 Xeon 服務(wù)器的,新一代標(biāo)準(zhǔn)化的加速卡,使用戶可以 AI 領(lǐng)域進(jìn)行定制計算加速。得益于龐大的云計算市場支撐, Intel 數(shù)據(jù)中心組業(yè)務(wù)收入規(guī)模一直位于全球首位, 2016-17 年單季保持同比中高個位數(shù)增長。 2017年 4 季度起,收入同比增速開始爬坡至 20%左右,但相比 Nvidia 的強勁增長態(tài)勢仍有差距。
AMD
AMD 雖未單獨拆分?jǐn)?shù)據(jù)中心收入,但從其計算和圖像業(yè)務(wù)的收入增長情況來看, GPU 銷量向好。目前 AMD GPU 也開始切入深度學(xué)習(xí)訓(xùn)練任務(wù),但市場規(guī)模落后于 Nvidia。
云端推斷芯片:百家爭鳴,各有千秋
推斷是指借助現(xiàn)有神經(jīng)網(wǎng)絡(luò)模型進(jìn)行運算, 利用新的輸入數(shù)據(jù)來一次性獲得正確結(jié)論的過程。 推斷過程對響應(yīng)速度一般有較高要求, 因此會采用 AI 芯片(搭載訓(xùn)練完成的神經(jīng)網(wǎng)絡(luò)模型)進(jìn)行加速。
相比訓(xùn)練芯片,推斷芯片考慮的因素更加綜合:單位功耗算力,時延,成本等等。初期推斷也采用 GPU 進(jìn)行加速,但由于應(yīng)用場景的特殊性,依據(jù)具體神經(jīng)網(wǎng)絡(luò)算法優(yōu)化會帶來更高的效率, FPGA/ASIC 的表現(xiàn)可能更突出。除了 Nvidia、 Google、 Xilinx、 Altera(Intel)等傳統(tǒng)芯片大廠涉足云端推斷芯片以外, Wave computing、 Groq 等初創(chuàng)公司也加入競爭。中國公司里,寒武紀(jì)、比特大陸同樣積極布局云端芯片業(yè)務(wù)。
主要云端推斷芯片對比
評論