IBM聲稱深度學習取得重大突破 大幅降低處理時間
IBM一直在努力促使計算機變得更智能化、更人性化。本周該公司宣布,已經(jīng)開發(fā)出一種技術,可以大幅縮短處理海量數(shù)據(jù)并得出有用結(jié)論的時間。
本文引用地址:http://www.ex-cimer.com/article/201708/362766.htmIBM使用的“深度學習”技術是人工智能(AI)的一個分支,可模仿人腦的工作原理。它也是微軟、Facebook、亞馬遜和谷歌的重大關注焦點。
IBM的目標是將深度學習系統(tǒng)消化數(shù)據(jù)所需要的時間從數(shù)天縮短到數(shù)小時。IBM研究所的IBM研究員和系統(tǒng)加速及記憶主管希拉里·亨特(Hillery Hunter)說,這些改進可以幫助放射學家更快、更準確地找到病變部位,并讀取大量醫(yī)學圖像。
到目前為止,深度學習主要是在單一服務器上運行的,因為在不同計算機之間移動大量數(shù)據(jù)的過程太過復雜。而且,如何在許多不同服務器和處理器之間保持數(shù)據(jù)同步也是一個問題。
IBM在周二的公告中說,已經(jīng)開發(fā)出了能夠?qū)⑦@些任務分配到64臺服務器的軟件,這些服務器總共有256個處理器,可在速度方面取得巨大飛躍。凡是擁有IBM Power系統(tǒng)服務器的用戶,以及其他想要測試的技術人員,均可獲得這項技術。
IBM使用了64個自主開發(fā)的Power 8服務器,每一個都將通用的英特爾微處理器和英偉達圖形處理器連接起來,并使用快速的NVLink連接,以促進兩種芯片之間的數(shù)據(jù)流傳輸。
在此之上,IBM采用了技術人員所說的集群技術來管理所有這些移動部件。集群技術可在給定服務器的多個處理器和其他63個服務器中的處理器之間充當通信警察。
如果流量管理不正確,一些處理器就會閑置,處于“吃不飽”的狀態(tài)。每個處理器都有自己的數(shù)據(jù)集,同時還需要來自其他處理器的數(shù)據(jù),以獲得更大的圖像。亨特解釋說,如果處理器不同步,它們就學不到任何東西。
亨特告訴《財富》雜志:“我們的想法是改變你訓練深度學習模式的速度,并真正提高你的工作效率。”
亨特說,將深度學習從一個帶有8個處理器的服務器擴展到64個服務器,每個服務器有8個處理器,可以將性能提高50-60倍。
Pund-IT公司創(chuàng)始人查爾斯·金(Charles King)對IBM的項目印象深刻,他說后者已經(jīng)找到了一種“擴大”系統(tǒng)的方法,額外增加的處理器能提高性能。
例如,在理論上,將處理器擴容100%應該獲得100%的性能提升。但實際上,由于復雜的管理和連接問題,這種效益永遠不會發(fā)生。
但IBM稱,其系統(tǒng)通過由加州大學伯克利分校創(chuàng)建的“咖啡因”深度學習框架,在256個處理器之間實現(xiàn)了95%的擴展效率。之前的記錄是由Facebook人工智能研究公司創(chuàng)造的,擴展效率達到了89%。
“IBM最新95%的擴展效率似乎太好了,不可能是真的,”帕特里克·莫海德(Patrick Moorhead)說,他是德克薩斯州奧斯丁市一家研究公司的總裁和創(chuàng)始人。
IBM表示,在圖像識別方面,IBM系統(tǒng)再次使用了“咖啡因”框架,在7個小時內(nèi)識別了750萬張圖片,準確率達到了33.8%。微軟之前的記錄是29.8%,而達到這一準確率花了10天時間。
用外行人的話來說,IBM聲稱已經(jīng)開發(fā)出了比現(xiàn)有深度學習技術更快、更精確的技術。當然,它還需要使用IBM的Power系統(tǒng)硬件和集群軟件。
除了“咖啡因”框架,IBM還表示,流行的谷歌TensorFlow框架同樣可以在這種新技術上運行。莫海德說,值得注意的是,IBM在運用自己在高性能計算方面的專業(yè)知識,同時,也采納諸如Tensorflow和“咖啡因”之類的外部資源,這種做法有助于該項技術更廣泛地適用于一系列深度學習應用。
評論