谷歌搞出個機器學(xué)習(xí)多面手:能處理聲音圖像多種任務(wù)
北京時間6月20日早間消息,谷歌近期發(fā)表的一篇學(xué)術(shù)論文或許為機器學(xué)習(xí)未來的發(fā)展制定了藍圖。這篇論文題為“一種可以進行各種學(xué)習(xí)的模型”,為可處理多任務(wù)的單一機器學(xué)習(xí)模型提供了模板。
本文引用地址:http://www.ex-cimer.com/article/201706/360726.htm谷歌研究員將其稱作“MultiModel”(多任務(wù)模型),并訓(xùn)練該模型完成一系列任務(wù),包括翻譯、語言分析、語音識別、圖像識別和對象探測等。盡管結(jié)果相對于當(dāng)前方法并沒有質(zhì)的飛躍,但這表明,用多種任務(wù)去訓(xùn)練機器學(xué)習(xí)系統(tǒng)將提升其整體性能。
例如,如果用可以勝任的所有任務(wù)來進行訓(xùn)練,那么相對于用單一任務(wù)進行訓(xùn)練,MultiModel在機器翻譯、語音和分析任務(wù)方面的準(zhǔn)確性會更高。
谷歌的論文為未來機器學(xué)習(xí)系統(tǒng)的開發(fā)提供了模板。這種系統(tǒng)可以得到更廣泛的應(yīng)用,或許也會更準(zhǔn)確。這將與當(dāng)前的狹義解決方案不同。更重要的是,這些技術(shù)(及其衍生技術(shù))有助于減少機器學(xué)習(xí)算法所需的訓(xùn)練數(shù)據(jù)量。
該團隊的研究結(jié)果表明,在用可以勝任的所有任務(wù)來進行訓(xùn)練時,準(zhǔn)確性會隨著訓(xùn)練數(shù)據(jù)的減少而提高。這點很重要,因為某些領(lǐng)域很難積累起足夠多的訓(xùn)練數(shù)據(jù)。
然而,谷歌并沒有宣稱已找到一種可以學(xué)會所有任務(wù)的“主算法”。正如名稱所暗示的,MultiModel網(wǎng)絡(luò)包含為解決不同挑戰(zhàn)而訂制的系統(tǒng),以及協(xié)助直接向這些專家算法提供輸入的系統(tǒng)。谷歌采取的方法將有助于未來開發(fā)類似的系統(tǒng),以解決不同領(lǐng)域的問題。
需要指出,這方面仍有許多測試需要去做。谷歌的研究結(jié)果尚未得到證實,目前也很難弄清,這項研究能否拓展至其他領(lǐng)域。作為TensorFlow開源項目的一部分,谷歌大腦團隊已經(jīng)發(fā)布了MultiModel的代碼,而其他人可以嘗試這個模型。
評論