<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > 芯片大神Jim Keller痛斥NVIDIA CUDA:不是護城河 是沼澤!

          芯片大神Jim Keller痛斥NVIDIA CUDA:不是護城河 是沼澤!

          作者: 時間:2024-02-21 來源:芯智訊 收藏

          對于 x86、Arm、MISC 和 RISC-V 等處理器架構都有深入研究的傳奇處理器架構師Jim Keller批評了被外界認為是)“護城河”的 架構和軟件堆棧,并將其比作x86,稱之為“沼澤”。

          本文引用地址:http://www.ex-cimer.com/article/202402/455561.htm

          他指出,就連本身也有多個專用軟件包,出于性能原因,這些軟件包依賴于開源框架。 

          芯片大神Jim Keller痛斥NVIDIA CUDA:不是護城河 是沼澤!

          是沼澤,而不是護城河,”凱勒在 X 帖子中寫道?!皒86 也是一片沼澤。[…] 并不漂亮。它是通過一次堆積一件東西來構建的?!?nbsp;

          確實,就像x86一樣,CUDA在保持軟件和硬件向后兼容性的同時逐漸增加了功能。

          這使得的平臺完整且向后兼容,但它影響了性能并使程序開發(fā)變得更加困難。

          同時,很多開源軟件開發(fā)框架可以比CUDA更高效地使用。 

          “基本上沒有人編寫 CUDA,”Jim Keller在后續(xù)帖子中寫道?!叭绻愦_實編寫 CUDA,它可能不會很快。[...] Triton、Tensor RT、Neon 和 Mojo 的存在是有充分理由的?!?nbsp;

          甚至本身也有不完全依賴 CUDA 的工具。

          例如,Triton Inference Server 是 的一款開源工具,可簡化 AI 模型的大規(guī)模部署,支持 TensorFlow、PyTorch 和 ONNX 等框架。

          Triton 還提供模型版本控制、多模型服務和并發(fā)模型執(zhí)行等功能,以優(yōu)化 GPU 和 CPU 資源的利用率。 

          NVIDIA的TensorRT是一種高性能深度學習推理優(yōu)化器和運行時庫,可加速NVIDIA GPU上的深度學習推理。

          TensorRT 從各種框架(例如 TensorFlow 和 PyTorch)中獲取經(jīng)過訓練的模型,并對其進行優(yōu)化以進行部署,從而減少延遲并提高圖像分類、對象檢測和自然語言處理等實時應用程序的吞吐量。 

          但是,盡管像Arm、CUDA 和x86這樣的架構可能會被認為是“沼澤”,因為它們的演進速度相對較慢、必須向后兼容并且體積龐大,但這些平臺也不像GPGPU這樣分散,這可能根本不是一件壞事。  

          目前尚不清楚 Jim Keller 對 AMD 的ROCm和英特爾的OneAPI有何看法,但很明顯,盡管他花了很多年時間設計 x86 架構,但他并不迷戀其未來前景。

          他的言論還暗示,盡管他曾在世界上一些最大的芯片制造商工作過一段時間,包括蘋果、英特爾、AMD、博通(現(xiàn)在是Tenstorrent)等公司,但我們可能不會在NVIDIA的名單上看到他的名字。



          關鍵詞: 英偉達 NVIDIA CUDA

          評論


          相關推薦

          技術專區(qū)

          關閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();