<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 新聞縱覽 > 英特爾研究院將在NeurIPS大會(huì)上展示業(yè)界領(lǐng)先的AI研究成果

          英特爾研究院將在NeurIPS大會(huì)上展示業(yè)界領(lǐng)先的AI研究成果

          作者: 時(shí)間:2023-12-08 來源: 收藏

          英特爾研究院將重點(diǎn)展示31項(xiàng)研究成果,它們將推進(jìn)面向未來的AI創(chuàng)新。

          本文引用地址:http://www.ex-cimer.com/article/202312/453697.htm

          image.png

          英特爾研究院將在NeurIPS 2023大會(huì)上展示一系列富有價(jià)值、業(yè)界領(lǐng)先的AI創(chuàng)新成果。面向廣大開發(fā)者、研究人員和學(xué)界人士,這一AI和計(jì)算機(jī)視覺領(lǐng)域的全球頂會(huì)將于12月10日至16日在美國(guó)新奧爾良市舉辦。

           

          在NeurIPS 2023上,英特爾研究院將展示其最新AI研究成果,并和由創(chuàng)新者和思想領(lǐng)袖組成的多元化社區(qū)分享英特爾“讓AI無處不在”的愿景。大會(huì)期間,英特爾研究院將發(fā)表31篇論文,包括12篇主會(huì)場(chǎng)論文和19篇研討會(huì)論文,并在405號(hào)展臺(tái)進(jìn)行技術(shù)演示。這些研究的重點(diǎn)是針對(duì)AI在科學(xué)領(lǐng)域的應(yīng)用研發(fā)的新模型、方法和工具,以及用于氣候建模、藥物發(fā)現(xiàn)和材料科學(xué)等AI用例的圖學(xué)習(xí)、多模態(tài)生成式AI,及AI算法和優(yōu)化技術(shù)。

           

          此外,英特爾研究院還將于12月15日舉辦 "AI加速材料發(fā)現(xiàn)(AI4Mat)研討會(huì)",為AI研究人員和材料科學(xué)家提供平臺(tái),共同探討如何應(yīng)對(duì)AI驅(qū)動(dòng)的材料發(fā)現(xiàn)、開發(fā)方面的挑戰(zhàn)。

          image.png

          具體而言,英特爾研究院此次展示的研究成果可被分為以下幾類,每一項(xiàng)都在所在領(lǐng)域具有一定影響力:

          1.AI驅(qū)動(dòng)的科學(xué)研究(AI for Science)

          ?大腦編碼模型:與得克薩斯大學(xué)奧斯汀分校研究人員聯(lián)合開發(fā)的模型,有助于預(yù)測(cè)大腦反應(yīng)和了解大腦多模態(tài)處理能力。

          ?ClimateSet:與魁北克人工智能研究所(Mila)聯(lián)合開發(fā)的大規(guī)模氣候模型數(shù)據(jù)集,用于快速預(yù)測(cè)新的氣候變化情景(climate change scenarios)的機(jī)器學(xué)習(xí)研究,并為機(jī)器學(xué)習(xí)領(lǐng)域革新性的氣候應(yīng)用奠定基礎(chǔ)。

          ?HoneyBee:與魁北克人工智能研究所聯(lián)合開發(fā)的先進(jìn)大語言模型,幫助研究人員更快地理解材料科學(xué)。

          2.多模態(tài)生成式AI

          ?COCO-Counterfactuals:一項(xiàng)生成合成反事實(shí)(counterfactual)數(shù)據(jù)的多模態(tài)技術(shù),可減少預(yù)訓(xùn)練多模態(tài)模型中不正確的統(tǒng)計(jì)偏差,幫助提高AI模型執(zhí)行圖文檢索和圖像識(shí)別等下游任務(wù)的性能。

          ?LDM3D-VR:用于3D虛擬現(xiàn)實(shí)的潛在擴(kuò)散模型(latent diffusion model),可簡(jiǎn)化AI應(yīng)用中的3D視頻生成功能。

          ?CorresNeRF:利用神經(jīng)輻射場(chǎng)(neural radiance fields)從2D圖像重建場(chǎng)景3D表示的圖像渲染方法。

          3.提升AI性能

          ?Diffpack:一種用于蛋白質(zhì)建模的生成式AI方法,有助于確保生成的3D結(jié)構(gòu)能夠反映蛋白質(zhì)的真實(shí)結(jié)構(gòu)特性。

          ?InstaTune:一種在微調(diào)階段生成超網(wǎng)絡(luò)(super-network)的方法,可減少網(wǎng)絡(luò)附加存儲(chǔ)(NAS)所需的總時(shí)長(zhǎng)和計(jì)算資源。 

          4.圖學(xué)習(xí)

          ?A*Net:業(yè)界領(lǐng)先的基于路徑的知識(shí)圖譜推理方法,數(shù)據(jù)集達(dá)百萬級(jí),可使數(shù)據(jù)集的擴(kuò)展能力超越計(jì)算范圍的限制,并提升大語言模型的準(zhǔn)確性。

          ?ULTRA:業(yè)界領(lǐng)先的知識(shí)圖譜推理基礎(chǔ)模型,以及學(xué)習(xí)通用和可遷移圖譜表示及其關(guān)系的新方法。

          ?Perfograph:一種新的基于編譯器圖的程序表示,可捕捉數(shù)值信息和復(fù)合數(shù)據(jù)結(jié)構(gòu),提高機(jī)器學(xué)習(xí)方法推理編程語言的能力




          關(guān)鍵詞:

          評(píng)論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();