Google一年追上摩爾定律七年進度
每年重要盛會之一的Google I/O 2016年開發(fā)者大會在美國時間18日上午登場,這次Google端出不少新東西,詳細可看科技新報的整理報導,還有一件值得關注的事,Google在大會上揭露公司正在打造機器學習專用的晶片--TPU(Tensor Processing Unit)。
本文引用地址:http://www.ex-cimer.com/article/201605/291456.htmGoogle 人工智能Alpha Go 在日前贏了南韓圍棋九段高手李世乭,AlphaGO 致勝的關鍵,就在于結合機器學習(Machine Learning)與深層類神經(jīng)網(wǎng)路(deep neural networks),模擬圍棋高手如何分析盤面、找出最有利的下法,步步為營。Google CEO 桑德爾?皮查(Sundar Pichai )在18 日Google I/O 大會上進一步揭露了這當中的秘密。
皮查指出,Google 專門為深層類神經(jīng)網(wǎng)路設計了特殊應用IC(application-specific integrated circuit,ASIC),以ASIC 為基礎的硬體或軟體,將能透過分析大量的數(shù)據(jù)學習特殊任務,Google 借由神經(jīng)網(wǎng)路得以辨識物件、照片中的人臉、了解傳到Android 手機上的說話指令,以及翻譯技術,甚至因此改變了Google 搜尋引擎。也是這項技術提升了Alpha GO 的計算速度,并使其思慮看得更深遠。
Google將運用此技術打造的機器學習專用晶片稱之為TPU(Tensor Processing Unit),Google在其自家部落格文章稱,由于TPU專為機器學習所運行,得以較傳統(tǒng)CPU、GPU降低精度,在計算所需的電晶體數(shù)量上,自然可以減少,也因此,可從電晶體中擠出更多效能,每秒執(zhí)行更復雜、強大的機器學習模組,并加速模組的運用,使得使用者更快得到答案,Google指出,團隊已經(jīng)在數(shù)據(jù)中心執(zhí)行TPU超過一年,且發(fā)現(xiàn)TPU能讓機器學習每瓦提高一個數(shù)量級,粗略來說,相當于摩爾定律中晶片效能往前推進了七年或者三代。搭載TPU的機板只要安裝在Google數(shù)據(jù)中心的硬碟插槽上即可。
Google 在去年發(fā)表機器學習系統(tǒng)TensorFlow,并強調(diào)其為開源,意味著任何人都可以使用甚至修改這套軟體引擎,但不代表外部使用者可共享Google TPU 的設計,不過可以透過Google 云端服務使用Google各式機器學習軟硬體服務。
而Google 揭露了這項計畫也為半導體巨頭們帶來警訊,Google 并未使用、或什少使用IC大廠的晶片,而是自己自行研發(fā)晶片,微軟目前也利用FPGA 加速人工智能運算。
評論