預(yù)訓練模型和遷移學習工具包3.0助力快速實現(xiàn)生產(chǎn)級AI
NVIDIA近日發(fā)布全新預(yù)訓練模型并宣布遷移學習工具包(TLT)3.0全面公開可用。遷移學習工具包在NVIDIA TAO平臺指導工作流程以創(chuàng)建AI的過程中起到核心作用。新版本包括各種高精度和高性能計算機視覺和對話式AI預(yù)訓練模型,以及一套強大的生產(chǎn)級功能,可將AI開發(fā)能力提升10倍。
本文引用地址:http://www.ex-cimer.com/article/202106/426567.htm隨著企業(yè)競相推出AI解決方案,企業(yè)競爭力將有賴于是否能夠獲得最佳開發(fā)工具。對于許多嘗試使用開源AI產(chǎn)品創(chuàng)建模型進行訓練的工程和研究團隊來說,在生產(chǎn)中部署自定義、高精度、高性能AI模型可能是一段十分艱難的開發(fā)歷程。NVIDIA提供高質(zhì)量的預(yù)訓練模型和TLT以幫助降低大規(guī)模數(shù)據(jù)采集和標注成本,同時告別從頭開始訓練AI/機器學習模型的負擔。初入計算機視覺和語音服務(wù)市場的企業(yè)現(xiàn)在也可以在不具備大規(guī)模AI開發(fā)團隊的情況下部署生產(chǎn)級AI。
新版本亮點包括:
● 一個支持邊緣實時推理的姿態(tài)估計模型,其推理性能比OpenPose模型快9倍。
● PeopleSemSegNet,一個用于人物檢測的語義分割網(wǎng)絡(luò)。
● 各種行業(yè)用例中的計算機視覺預(yù)訓練模型,如車牌檢測和識別、心率監(jiān)測、情緒識別、面部特征點等。
● CitriNet,一個使用各種專有特定域和開源數(shù)據(jù)集進行訓練的新語音識別模型。
● 一個用于問題回答的新Megatron Uncased模型以及許多其他支持語音文本轉(zhuǎn)換、命名實體識別、標點符號和文本分類的預(yù)訓練模型。
● AWS、GCP和Azure上的訓練支持
● 在用于視覺AI的NVIDIA Triton?和DeepStream SDK上以及用于對話式AI的Jarvis上的開箱即用部署。
與數(shù)據(jù)生成和標簽工具集成,實現(xiàn)更快、更精確的AI
TLT 3.0現(xiàn)在還與數(shù)家領(lǐng)先合作伙伴的平臺集成,這些合作伙伴提供大量多樣化的高質(zhì)量標簽數(shù)據(jù),使端到端AI/機器學習工作流程變得更快。您現(xiàn)在可以使用這些合作伙伴的服務(wù)來生成和注釋數(shù)據(jù)、通過與TLT無縫集成進行模型訓練和優(yōu)化并使用DeepStream SDK或Jarvis部署模型以創(chuàng)建可靠的計算機視覺和對話式AI應(yīng)用。
評論