<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 消費電子 > 業(yè)界動態(tài) > 酷睿輕薄本也能運行大語言模型,英特爾推動 PC 生成式 AI 落地

          酷睿輕薄本也能運行大語言模型,英特爾推動 PC 生成式 AI 落地

          作者: 時間:2023-08-25 來源: 收藏

          IT之家 8 月 24 日消息,2023 年 8 月 18 日上午,英特爾在大灣區(qū)舉辦了一場技術分享會,主題是英特爾在 AIGC(人工智能生成式計算)領域的最新進展。會上,英特爾的技術專家向與會者展示了他們在 AIGC 上的技術方向,并進行了多個應用的演示。

          本文引用地址:http://www.ex-cimer.com/article/202308/449948.htm

          首先,英特爾介紹了他們在大語言模型方面的優(yōu)化和支持。在我們傳統(tǒng)的認知里,運行類似 ChatGPT 這種大語言模型必須要有大顯存的顯卡支持。但這場交流會卻顛覆了我們的認知。英特爾為了讓 12、13代酷睿平臺也能夠順利運行各種大語言模型并提供流暢的使用體驗,構建了 BigDL-LLM 庫。通過這個庫,可以對各種大語言模型進行優(yōu)化和支持,包括一些開源的、可以在本地運行的大語言模型。這個庫甚至可以在一臺搭載 16GB 內存的英特爾輕薄本的機器上運行參數量高達 16B 的大語言模型。此外還支持 LLaMA / LLaMA2、ChatGLM / ChatGLM2 等多個大語言模型。

          接下來,英特爾展示了他們在大語言模型應用方面的表現。通過集成了 ChatGLM2、LLaMA2 和 StarCoder 這三個大語言模型的 Demo,他們演示了這些模型在中文和英文應用上的表現。通過優(yōu)化和量化操作,這些大語言模型在生成回答時能夠以非??斓乃俣壬?,并且不影響閱讀體驗。英特爾已經發(fā)布了這套 Demo,任何搭載 12、13代酷睿的電腦都可以直接安裝并體驗。

          我們這里選擇了一臺通過英特爾Evo平臺認證的輕薄本:華為 MateBook 16s 來進行測試。處理器為酷睿 i9-13900H + 32G 內存,看看在核顯輕薄本上究竟能不能跑 AIGC。

          英特爾大語言模型的 Demo 安裝過程非常傻瓜,英特爾已經打包成了 EXE 文件,安裝并導入.Bin 格式的大語言模型就可以運行了。打開界面我們可以看到左側可以選擇聊天內容、調整模型參數和查看運算延遲,右側則是聊天框。

          筆者先嘗試問了他一些人情世故方面的問題,沒想到回答非常出色,響應速度也很快。這樣一個問題只花了 658.87ms 就完成了響應。

          在運算過程中我們可以看到,i9-13900H 占用率達到了 100%,內存占用達到了 16G,Xe 核顯也有一定占用??磥磉@個運算過程確實是在本地進行的。經過英特爾不斷的優(yōu)化和 13代酷睿處理器算力的提升,我們真的在輕薄本上實現了 AIGC 的落地。

          在情感分析功能中,我們讓大語言模型分析了一段經典散文??梢钥吹诫m然分析的角度比較淺顯,但沒有邏輯錯誤,還是可以自洽的。

          而在這個中文翻譯功能中,英特爾大語言,模型的表現就更加令我意外了,它的翻譯質量相當高,速度也很快。哪怕是有如此多專有名詞的稿件,也能準確無誤地翻譯。

          在故事創(chuàng)作方面,這套大語言模型也展現出了令我驚訝的邏輯能力和創(chuàng)造能力。我這邊讓它寫一篇關羽大戰(zhàn)林黛玉,最后林黛玉取勝的故事。但 AI 居然認識到了這兩人根本不是一個時代的,最后寫了一個穿越時空的戲碼,雖然漏洞百出,但大體上沒有問題。

          生成大綱功能則是一個非常有用的功能,我們只要輸入想要撰寫的稿件,就能幫我們列出一套邏輯清晰的稿件大綱了。這對于經常需要寫文章的群體來說能起到很好的輔助作用。

          信息提取功能對于經常需要閱讀報告的群體來說很有幫助??梢钥焖購拈L篇文章中提取核心信息。我這邊嘗試讓 AI 從英文文章中提取中文信息,效果卻依然非常好。

          最后,筆者讓 AI 給出一份青島美食建議和青島旅游建議。由于這個大語言模型是完全離線運行的,所以給到的信息也會比較陳舊,但單從撰寫水平來看還是不錯的。

          除了大語言模型應用外,英特爾還展示了在 AI 文生圖算法 Stable Diffusion 上的支持。他們啟用了 OpenVINO 的加速,開發(fā)了一套 AI 框架,通過一行代碼的安裝,就可以加速 PyTorch 模型的運行。通過 Stable Diffusion 的 WebUI,可以在集成顯卡和 Arc 獨立顯卡上運行 Stable Diffusion Automatic1111。通過演示,可以看到在 Evo 輕薄本和搭載 i7-13700H 處理器的機器上,Stable Diffusion 在集成顯卡上的表現效果。96EU 版本的英特爾銳炬 Xe 顯卡強大的算力,可以支持 Stable Diffusion 軟件上運行 FP16 精度的模型,快速生成高質量圖片。

          同時,他們還展示了在搭載 i7-13700K CPU + Arc A770 獨顯的機器上運行 Stable Diffusion 的效果,速度非???。

          此外,英特爾還展示了基于 Arc 顯卡的人物動作的三維數字重建技術。通過 Arc 強大的算力和 OpenVINO 框架對 AI 算法的優(yōu)化推理,可以實時探測和重建人物動作,并進行后期渲染。這項技術不需要智能穿戴設備,只需連接家用攝像頭,即可實現實時探測和重建人物動作,并通過數字人的形象進行動畫渲染。通過實時的骨骼點信息和 3D 重建,數字人可以展現出靈活多樣的肢體動作,實現真實的三維動效。同時,根據用戶的需求,可以自定義渲染器的畫風,快速打造各種元宇宙應用。

          在最后的渦輪卡展示環(huán)節(jié),英特爾展示了他們新的渦輪 GPU 卡,Arc A770 16G。這張卡具有雙槽全長全高的設計,適應各種邊緣側服務器機箱或設備機箱。它采用渦輪風扇設計,減少對機箱內流場的干擾,更適合多卡混合計算的服務器、煉丹爐場景。

          從本次分享會看來,英特爾一直著力于發(fā)展 AI 技術,特別是當下火熱的 AIGC 領域,英特爾也沒有缺席。憑借 13代酷睿強勁的算力和不斷的算法優(yōu)化,現在即便是輕薄本也可支持大語言模型的本地運行。而在 Arc 顯卡的加持下,Stable Diffusion 文生圖的支持也在不斷開展。同時,英特爾也在探索 AI 的下一代應用場景,并為企業(yè)級用戶提供算力更強的解決方案。

          通過這些技術的展示,英特爾向大家展示了他們在 AIGC 領域的領先地位和不斷創(chuàng)新的能力。他們致力于為用戶提供更智能、高效的計算體驗,推動人工智能技術的發(fā)展和應用。隨著技術的不斷進步和完善,我們可以期待在未來看到更多來自英特爾的 AIGC 應用和解決方案。




          關鍵詞:

          評論


          相關推薦

          技術專區(qū)

          關閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();