由于人工智能的高歌猛进,NVIDIA的GPU业务正在蓬勃发展,但由于该公司试图在台积电增加产量,看起来可能无法满足需求。英伟达的GPU业务蓬勃发展是无数年来将人工智能作为下一个大事件的赌注的结果。通过ChatGPT和其他生成性人工智能模型,看起来NVIDIA的赌注已经得到了回报,该公司正从科技行业的各个角落获得订单,其中包括A100和H100。

Wedbush对ARK投资公司14万亿美元的人工智能市场机会论提出了8000亿美元的现实检验。

现在有多份报告表明,尽管NVIDIA尽了最大努力,但可能无法跟上大规模的AI芯片需求。DigiTimes最近的一份报告表明,随着公司看到其最新GPU的订单急剧增加,该公司已经开始增加其在台积电的芯片产量。

NVIDIAA100采用台积电7纳米工艺节点,而去年5月开始出货的H100则是基于台积电4N工艺节点(为NVIDIA设计的5纳米节点的优化版本)。自推出以来,该公司已经看到对其H100和DGX H100 GPU驱动的服务器的巨大需求。尽管NVIDIA一直努力跟上需求,但最近的人工智能热潮对该公司跟上需求的努力造成了巨大阻碍。

在中国,该公司正在提供其A100和H100 GPU的改进版,以绕过美国的制裁,称为A800和H800,这些芯片的价格比原MSRP高出40%。中国现在对这些人工智能GPU的需求如此之大,甚至连V100(2018年推出的GPU,也是第一款采用Tensor Core架构的GPU)的价格也维持在1万美元左右(7万元人民币)。NVIDIAA800的售价更是高达25.2万人民币或3.65万美元。

据报道,交付周期也受到了影响,因为NVIDIA希望首先满足其非中国技术合作伙伴的需求。因此,NVIDIA的GPU在中国的交付时间原来是3个月左右,现在还得多等3个月,有些情况下甚至更高。

在之前的报告中,我们提到了NVIDIA对HPC和AI GPU的需求会扰乱游戏芯片的供应,因为该公司希望将更多的资源分配给AI,它称这是PC和科技行业的一场革命。预计需求迟早会超过供应,但NVIDIA正在夜以继日地工作,以确保它仍然可以向其最大的合作伙伴提供体面的芯片供应,这些合作伙伴愿意支付额外的价格来确保世界上最顶级的AI芯片。NVIDIA也是ChatGPT背后的主要推动力,其数千个GPU正在为当前和最新的模型提供动力。

推荐内容