<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > 27 億參數(shù),微軟發(fā)布 Phi-2 模型:某些性能指標優(yōu)于 Llama-2-7B

          27 億參數(shù),微軟發(fā)布 Phi-2 模型:某些性能指標優(yōu)于 Llama-2-7B

          作者: 時間:2023-11-17 來源:IT之家 收藏

          IT之家 11 月 17 日消息, Ignite 2023 大會已拉開帷幕,在本次活動中發(fā)布了旗下最小的語言模型 Phi-2,共有 27 億參數(shù),相比較此前版本有明顯提升。

          本文引用地址:http://www.ex-cimer.com/article/202311/453047.htm

          image.png

          IT之家注:于今年 6 月發(fā)布 Phi-1,只有 13 億參數(shù),適用于 QA 問答、聊天格式和代碼等等場景。該模型完全基于高質(zhì)量數(shù)據(jù)進行訓(xùn)練,在基準測試中的表現(xiàn)比同類模型高出 10 倍。

          微軟今年 9 月更新發(fā)布了 Phi-1.5 版本,同樣為 13 億參數(shù),可以寫詩、寫電子郵件和故事,以及總結(jié)文本。在常識、語言理解和推理的基準測試中,該模型在某些領(lǐng)域能夠跟上多達 100 億個參數(shù)的模型。

          微軟現(xiàn)在更新發(fā)布的 Phi-2 擁有 27 億參數(shù),規(guī)模雖然比此前版本翻番,但相比較其它主流語言模型,依然小很多。

          微軟表示 Phi-2 在邏輯推理和安全性方面顯示出顯著的改進。通過正確的微調(diào)和定制,小型語言模型是云和邊緣應(yīng)用程序的強大工具。

          Microsoft Research 機器學(xué)習(xí)基礎(chǔ)小組負責人 Sebastien Bubeck 在 Twitter 上發(fā)布了“MT-Bench”基準測試的屏幕截圖,該基準測試了具有強大語言模型(例如 GPT-4)的大型和小型語言模型的實際功能。

          image.png

          根據(jù)結(jié)果,Phi-2 在某些方面優(yōu)于 Meta 的 Llama-2-7B 模型。Phi-2 的聊天版本也在醞釀中,可能會解決該模型在這些領(lǐng)域的一些現(xiàn)有痛點。




          關(guān)鍵詞: 微軟 生成式AI

          評論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();