• 如何看待M4单核性能吊打9950x?
  • cloudflare的1.1.1.1和warp有什么区别?
  • 美国海军有多恐怖?
  • 能分享一下你写过的rust项目吗?
  • 谷歌云服务宕机导致 OpenAI、Shopify 等服务中断,此次宕机的具体技术原因是什么?

诚信为本,市场在变,诚信永远不变...        

0896-98589990
新闻资讯
您的当前位置: 首页 > 新闻资讯

CUDA真是NVIDIA绝对牢不可破的生态吗?

发布时间:2025-06-24 12:20:13

分享到:

有人说,我做一款AI芯片,只要原生支持PyTorch就好了呀,用户直接用PyTorch跑模型,根本接触不到CUDA呀。

没错,一般的用户只要在PyTorch层面做应用,但是总是有新的模型架构出来,这些架构都需要做特定的性能优化才能在一个芯片上得到较高的性能,这时候就涉及到算子开发了。

比如说一开始LLM在GPU上的性能不好,后来社区针对Nvidia GPU做了flash attention等的优化才把LLM的性能提升到了比较可观的程度。

CUDA已经被各种开源AI框…。

CUDA真是NVIDIA绝对牢不可破的生态吗?

上一篇 : 《风味人间》里的顺德鱼生是淡水生鱼片,不担心有***吗?

下一篇 : 超小团队选择Django还是Flask?