ai on arm 文章 進(jìn)入ai on arm技術(shù)社區(qū)
商湯科技:目前投建的國產(chǎn)化 AI 算力集群已擁有 5.4 萬張 GPU,最高算力達(dá) 2 萬 P
- IT之家 9 月 6 日消息,據(jù)界面新聞報道,在今日舉辦的 2024 REAL 科技大會上,商湯數(shù)字文娛事業(yè)部總經(jīng)理欒青介紹稱,目前商湯投建的國產(chǎn)化人工智能算力集群已擁有 5.4 萬張 GPU,最高算力達(dá) 2 萬 P。欒青表示,商湯正在上海臨港投建全國最大規(guī)模人工智能數(shù)據(jù)中心,全國算力節(jié)點遍及上海、廣州、重慶、深圳、福州等地。據(jù)IT之家此前報道,商湯截至 2024 年 6 月 30 日的半年報數(shù)據(jù)顯示,2024 年上半年,集團(tuán)總收入為 17.397 億元,同比增長 21.4%。其中生成式 AI
- 關(guān)鍵字: 商湯科技 AI
AI 推理競賽白熱化
- 雖然 Nvidia GPU 在 AI 訓(xùn)練中的主導(dǎo)地位仍然是無可爭議的,但我們可能會看到早期跡象,表明在 AI 推理方面,這家科技巨頭的競爭正在加劇,尤其是在能效方面。然而,Nvidia 新 Blackwell 芯片的純粹性能可能很難被擊敗。今天早上,ML Commons 發(fā)布了其最新的 AI 推理競賽 ML Perf Inference v4.1 的結(jié)果。本輪融資包括使用 AMD Instinct 加速器
- 關(guān)鍵字: Nvidia Blackwell AMD Google Untether AI MLPerf 基準(zhǔn)測試
AI 引發(fā)了一場關(guān)于網(wǎng)絡(luò)爬蟲的戰(zhàn)斗
- 大多數(shù)人認(rèn)為生成式 AI 會越來越好;畢竟,這是迄今為止的趨勢。它可能會這樣做。但有些人沒有意識到的是,生成式 AI 模型的好壞取決于它們所訓(xùn)練的巨大數(shù)據(jù)集,而這些數(shù)據(jù)集并不是根據(jù) OpenAI 和 Anthropic 等領(lǐng)先 AI 公司擁有的專有數(shù)據(jù)構(gòu)建的。相反,它們由我們所有人創(chuàng)建的公共數(shù)據(jù)組成,包括任何曾經(jīng)寫過博客文章、發(fā)布過視頻、在 Reddit 帖子上發(fā)表過評論或基本上在網(wǎng)上做過任何其他事情的人。AI 研究人員志愿者團(tuán)體 Data Provena
- 關(guān)鍵字: AI 網(wǎng)絡(luò)爬蟲 生成式 AI
全硅“片上風(fēng)扇”使薄型器件保持低溫
- 大多數(shù)手機和平板電腦都依賴于被動冷卻,將熱量散發(fā)到設(shè)備主體中(并最終散發(fā)到您的手掌中)。主動冷卻風(fēng)扇會有所幫助,但傳統(tǒng)風(fēng)扇太大,無法安裝在智能手機、平板電腦甚至一些筆記本電腦中。微型揚聲器制造商 xMEMS 認(rèn)為它擁有世界上第一款全硅片上風(fēng)扇 XMC-2400 的解決方案。它的設(shè)計大約厚一毫米,寬和深不到一厘米,借鑒了 xMEMS 音頻產(chǎn)品的經(jīng)驗教訓(xùn)。“該行業(yè)有一系列從機械設(shè)備轉(zhuǎn)移到硅的技術(shù)。從數(shù)據(jù)存儲,然后到麥克風(fēng),他們完成了過渡,“xMEMS 副總裁 Mike Housholder 
- 關(guān)鍵字: xMEMS 風(fēng)扇 設(shè)備端 AI 系統(tǒng) 片上風(fēng)扇
OpenAI計劃籌資數(shù)百億在美打造AI基礎(chǔ)設(shè)施
- 據(jù)外媒報道,OpenAI首席執(zhí)行官山姆·阿爾特曼(Sam Altman)正在計劃一項大規(guī)模的人工智能基礎(chǔ)設(shè)施建設(shè)項目,重點首先是在美國各州啟動,預(yù)計總投資將達(dá)到數(shù)百億美元。從今年年初開始,阿爾特曼一直在尋求美國政府對該項目的支持?—— 旨在組建一個全球投資者聯(lián)盟,為AI快速發(fā)展所需的昂貴物理基礎(chǔ)設(shè)施提供資金。知情人士透露,正在討論的項目類型包括建設(shè)數(shù)據(jù)中心、增加能源容量和傳輸設(shè)施(如渦輪機和發(fā)電機),以及擴(kuò)大半導(dǎo)體制造能力。支持這一項目的投資者可能來自加拿大、韓國、日本和阿聯(lián)酋等地,此外,Ope
- 關(guān)鍵字: OpenAI AI 基礎(chǔ)設(shè)施
英偉達(dá)投資日本AI研發(fā)初創(chuàng)公司Sakana AI
- 媒體報道,近日初創(chuàng)公司Sakana AI已完成一輪1億多美元的融資,投資者名單中出現(xiàn)了英偉達(dá)身影。Sakana AI表示,它將與英偉達(dá)在日本當(dāng)?shù)剡M(jìn)行研究、數(shù)據(jù)中心接入和人工智能社區(qū)建設(shè)方面的合作。資料顯示,Sakana AI于2023年創(chuàng)立,采用小數(shù)據(jù)集來訓(xùn)練低成本的生成人工智能模型。Sakana AI透露,其算法可以幫助用戶自動創(chuàng)建人工智能模型,通過模仿“進(jìn)化和自然選擇”來處理語言或圖像,從而減少所需的人工輸入量。該公司稱這種方法可以大大降低人工智能開發(fā)的成本和速度。
- 關(guān)鍵字: 英偉達(dá) AI研發(fā)初創(chuàng)公司 Sakana AI
馬斯克 xAI 上線全球最大 AI 訓(xùn)練集群:122 天搭建 10 萬張英偉達(dá) H100,未來幾月將翻倍至 20 萬張
- IT之家 9 月 4 日消息,埃隆?馬斯克(Elon Musk)昨日(9 月 3 日)在 X 平臺發(fā)布推文,宣布 xAI 打造的超級 AI 訓(xùn)練集群 Colossus 已經(jīng)正式上線。馬斯克在推文中表示,超級 AI 訓(xùn)練集群 Colossus 搭建用時 122 天,共有 10 萬張英偉達(dá) H100 GPU 加速卡,而在未來幾個月將再翻倍增加 10 萬張 GPU,其中 5 萬張為更先進(jìn)的 H200。英偉達(dá)數(shù)據(jù)中心官方賬號隨后轉(zhuǎn)發(fā)馬斯克該條推文,表示 Colossus 是全球最大規(guī)模的超級 AI 訓(xùn)練
- 關(guān)鍵字: AI 馬斯克 英偉達(dá)
實現(xiàn)靈活的軟件定義汽車架構(gòu)
- 本文作者是 Kernkonzept 公司的首席技術(shù)官 Adam Lackorzynski 博士,他將帶領(lǐng)我們了解基于 Armv8-R 架構(gòu)的 L4Re Micro?Hypervisor,探討其中的虛擬化功能是如何幫助構(gòu)建靈活且面向未來的汽車系統(tǒng),以實現(xiàn)軟件定義汽車 (SDV)。ECU 整合的必要性隨著各種用戶功能的需求不斷增加,以及實現(xiàn)這些功能的更強大硬件的出現(xiàn),汽車的電子電氣 (E/E) 架構(gòu)正在持續(xù)演進(jìn)。過去,經(jīng)典的汽車 E/E 架構(gòu)將功能分配到多達(dá) 100 個電子控制單元 (ECU) 中。
- 關(guān)鍵字: Arm 軟件定義 汽車架構(gòu)
AWS Graviton4 助力加速全 Arm 架構(gòu)的基礎(chǔ)設(shè)施時代
- 作者: Arm 工程部設(shè)計服務(wù)總監(jiān) Tim Thornton自 2019 年基于 Arm Neoverse N1 核心的 AWS Graviton2 推出以來,Arm 攜手合作伙伴持續(xù)提升基于 Arm 架構(gòu)的設(shè)計性能。如今,AWS Graviton 處理器已發(fā)展到了第四代,在 AWS Graviton4 全面上市之際,我們也一起來回顧一下過去幾年所取得的進(jìn)展。在 Arm,芯片設(shè)計流程的一個關(guān)鍵階段是 RTL 仿真。在此過程中,驗證工程師采用以 Verilog 表達(dá)的設(shè)計,并使用如西門子的 Que
- 關(guān)鍵字: Arm AWS Graviton4
基于機器學(xué)習(xí)的高效嵌入式計算機視覺
- 作者:Arm 物聯(lián)網(wǎng)事業(yè)部主任軟件工程師兼技術(shù)推廣工程師Sandeep MistryTinyML 是機器學(xué)習(xí) (ML) 的一個分支,專注于將 ML 模型部署到低功耗、資源受限的物聯(lián)網(wǎng) (IoT) 設(shè)備上。在物聯(lián)網(wǎng)設(shè)備上部署 ML 模型有諸多好處,包括減少延遲和保護(hù)隱私性,因為所有數(shù)據(jù)都是在端側(cè)處理。TinyML 在 2019 年引起了人們的關(guān)注,當(dāng)時,Google 的 TensorFlow 團(tuán)隊發(fā)布了適用于微控制器的 TensorFlow Lite (TFLM) 庫 [1]
- 關(guān)鍵字: Arm 機器學(xué)習(xí) 嵌入式 計算機視覺
Armv9 技術(shù)講堂 | Neon、SVE 和 SME 實現(xiàn)矩陣-矩陣乘法的比較
- Arm 始終專注于架構(gòu)演進(jìn),確保生態(tài)系統(tǒng)能夠適應(yīng)未來的技術(shù)趨勢和不斷變化的計算需求。Armv9 架構(gòu)上的 可伸縮矩陣擴(kuò)展 (SME) 顯著提高了 Arm CPU 對現(xiàn)有人工智能 (AI) 和機器學(xué)習(xí) (ML) 工作負(fù)載的處理能力,從而在各種 AI 驅(qū)動的設(shè)備和應(yīng)用中帶來速度更快、響應(yīng)更靈敏的用戶體驗。在此前的內(nèi)容中,Arm 技術(shù)專家為大家簡要介紹了 SME 和 SME 指令 ,本期將帶你了解如何使用 Neon、可伸縮向量擴(kuò)展 (SVE)
- 關(guān)鍵字: Arm Armv9 Neon SVE SME 矩陣
Helium 技術(shù)講堂 | 克服 Amdahl 定律的影響
- 當(dāng)人工智能 (AI) 下沉到各式各樣的應(yīng)用當(dāng)中,作為市場上最大量的物聯(lián)網(wǎng)設(shè)備也將被賦予智能性。Arm ? Helium? 技術(shù)正是為基于 Arm Cortex ? -M 處理器的設(shè)備帶來關(guān)鍵機器學(xué)習(xí)與數(shù)字信號處理的性能提升。上周,我們聊了聊 與內(nèi)存訪問相關(guān) 的內(nèi)容。最后一期的 Helium 技術(shù)講堂, 我們將要了解如何克服阿姆達(dá)爾 (Amdahl) 定律的影響。 若您想要了解如何高效利用 Helium,千萬別錯過文末
- 關(guān)鍵字: Arm Amdahl Helium
Supermicro將推出基于Intel技術(shù)、全新高性能X14服務(wù)器,適用于AI、高性能計算與關(guān)鍵型企業(yè)工作負(fù)載

- Supermicro, Inc. 作為AI/ML、高性能計算、云端、存儲和5G/邊緣領(lǐng)域的全方位IT解決方案提供企業(yè),預(yù)告將推出全新設(shè)計的X14服務(wù)器平臺,并將通過新一代技術(shù),使計算密集型工作負(fù)載與應(yīng)用程序的性能進(jìn)一步優(yōu)化。繼Supermicro于2024年6月推出的效率優(yōu)化X14服務(wù)器獲得了成功,新型系統(tǒng)以該系列服務(wù)器為基礎(chǔ)進(jìn)行全面重大升級,在單一節(jié)點中空前地支持256個性能核(P-Core),以及最高8800MT/s的MRDIMM內(nèi)存,并與新一代SXM、OAM和PCIe GPU兼容。此項組合可顯著加速
- 關(guān)鍵字: Supermicro Intel X14服務(wù)器 AI 高性能計算 工作負(fù)載
ai on arm介紹
您好,目前還沒有人創(chuàng)建詞條ai on arm!
歡迎您創(chuàng)建該詞條,闡述對ai on arm的理解,并與今后在此搜索ai on arm的朋友們分享。 創(chuàng)建詞條
歡迎您創(chuàng)建該詞條,闡述對ai on arm的理解,并與今后在此搜索ai on arm的朋友們分享。 創(chuàng)建詞條
關(guān)于我們 -
廣告服務(wù) -
企業(yè)會員服務(wù) -
網(wǎng)站地圖 -
聯(lián)系我們 -
征稿 -
友情鏈接 -
手機EEPW
Copyright ?2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《電子產(chǎn)品世界》雜志社 版權(quán)所有 北京東曉國際技術(shù)信息咨詢有限公司
京ICP備12027778號-2 北京市公安局備案:1101082052 京公網(wǎng)安備11010802012473
Copyright ?2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《電子產(chǎn)品世界》雜志社 版權(quán)所有 北京東曉國際技術(shù)信息咨詢有限公司
