AI 芯片供应问题缓解,消息称部分公司开始转售英伟达 H100 GPU

据报道,用于人工智能 (AI) 和高性能计算 (HPC) 应用的英伟达 H100 GPU 交货周期大幅缩短,从之前的 8-11 个月缩减至仅 3-4 个月。这导致一些囤货的公司正在试图出售其过剩的 H100 80GB 处理器,因为现在从亚马逊云服务、谷歌云和微软 Azure 等大型公司租用芯片更加方便。

AI 芯片供应问题缓解,消息称部分公司开始转售英伟达 H100 GPU

据 The Information 报道称,由于稀缺性降低以及维护未使用库存的高昂成本,一些公司正在转售其 H100 GPU 或减少订单,这与去年争相抢购英伟达 Hopper GPU 形成鲜明对比。尽管芯片可用性改善且交货周期显著缩短,但报道称,对 AI芯片的需求仍然超过供给,尤其是一些训练大型语言模型 (LLM) 的公司,例如 OpenAI。

云服务提供商(CSP)例如亚马逊 AWS 提供按需租用 H100 GPU 的服务,缓解了部分需求压力,缩短了等待时间。

然而,由于训练大型语言模型需要成千上万的 GPU,因此此类公司仍面临供应瓶颈,有时需要等待数月才能获得所需的处理能力。因此,英伟达 H100 等处理器的价格并未下降,公司仍保持着高利润率。

随着芯片供应瓶颈的缓解,买家行为也发生了转变。企业变得更加注重价格和采购 / 租赁的合理性,倾向于选择更小的 GPU 集群并关注其业务的经济可行性。

由于替代方案(例如 AMD 或 AWS 的处理器)的性能和软件支持不断加强,再加上对 AI 处理器更加谨慎的支出,AI 领域可能迎来更加平衡的市场格局。

声明:内容均采集自公开的网站等各类媒体平台,若收录的内容侵犯了您的权益,请联系邮箱,本站将第一时间处理。
资讯

谷歌 DeepMind 推出 Genie 模型:110 亿个参数,基于图片和提示词生成 2D 游戏

2024-2-28 9:29:05

资讯

研究:近一半热门新闻网站屏蔽了 OpenAI 爬虫

2024-2-28 9:30:51

搜索