<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 新聞縱覽 > 曠視天元MegEngine開源CUDA INT4量化源碼實現

          曠視天元MegEngine開源CUDA INT4量化源碼實現

          作者:時間:2024-04-09來源:收藏

          當下人工智能技術正加速發展,滲透到云、邊、端和應用的各個層面,與海量IoT設備進行深度融合,不斷拓展應用場景。然而在AIoT場景中,嵌入式設備往往算力有限,難以承載龐大的AI模型。如何在資源有限的終端場景實現 AI 模型的有效部署,是加速AI落地的重要問題。AI 工程師們研發了各種試圖縮小模型大小并保持性能的辦法,例如量化和蒸餾。其中,模型量化是將浮點計算轉成低比特定點計算的一種模型壓縮技術,可以有效減少模型算力消耗并提升計算速度,當前已經在工業界發展比較成熟。

          本文引用地址:http://www.ex-cimer.com/article/202404/457328.htm

          目前相對成熟的模型量化方案是 INT8 量化。以ResNet-50 模型為例,原本需要用 float 32 表示的權重,量化后只需要使用  INT8 表示,通過這樣的處理,模型體積可以減少到原來的1/2,再加上 TensorCore 的加持,還會有近 8 倍的網絡加速。而如果更進一步,將模型用INT4 表示,可以帶來更多的速度提升。

          1712654782127272.png

          為了推動低比特量化技術的發展,曠視天元MegEngine 團隊開源了 INT4 的源碼實現,這也讓MegEngine成為首個開源 CUDA INT4 源碼實現的深度學習框架。MegEngine采用均勻線性量化方案,實現了非對稱量化和對稱量化兩種INT4的數據類型,同時通過算子融合優化、kernel優化等方法,使得量化后的模型可以依然保持較高的精度以及良好的運行速度。同樣以ResNet-50為例,INT4 相比 INT8 有 1.3倍的加速。

          隨著 CUDA INT4 的開源,目前MegEngine 框架不僅支持浮點數 FP32 和 FP16,而且支持 INT8 和 INT4 的對稱和非對稱量化推理。此外,MegEngine框架開發了諸多工具,幫助用戶提升模型推理性能、簡化部署流程,包括自動代碼裁剪功能,支持用戶全自動的針對算子進行代碼裁剪;TracedModule 方案以及 MegEngine Lite,基于曠視海量業務打磨出的模型推理最佳實踐,化解模型轉換部署難題;流程管理工具FastRun, 可以為每個計算自動選擇最快的算法,從而保證整個網絡的運行時間最短,讓 MegEngine 用戶運行不同的網絡時都能收獲最好性能。

          自開源以來,MegEngine不斷優化,已先后發布29個版本,推出一系列實用功能,降低AI算法生產門檻,助力AI應用快速落地。未來,曠視將繼續支持和擁抱開源,并將自身在開源領域積累的技術和經驗與業界共享,推動人工智能技術創新和行業發展。



          關鍵詞:

          評論


          相關推薦

          技術專區

          關閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();