Synth Daily

英伟达与AI芯片市场的未来展望:Vera Rubin架构与估值重构

英伟达(Nvidia)正处于从Blackwell架构向下一代Vera Rubin架构过渡的关键期。尽管近期股价在半年内表现平稳,但其业务基本面依然展现出惊人的扩张力。新一代Rubin架构预计将大幅降低AI训练与推理成本,其中推理代币成本有望下降90%,这将进一步刺激全球数据中心的建设需求。分析指出,到2030年,全球AI基础设施年支出可能达到4万亿美元。虽然谷歌的TPU和博通的定制芯片正在崛起,但英伟达凭借强大的生态系统和持续的技术迭代,依然维持着极高的定价权。目前,英伟达的前瞻市盈率已降至与标普500指数相近的水平,预示着未来两年内股价存在翻倍甚至三倍的潜力。

要点

  • 1新一代Rubin架构在性能上远超当前的Blackwell,预计可使AI推理成本降低达90%。
  • 2营收加速增长,预计2027财年总营收将达到3677亿美元,增速由上一年的65%提升至70%。
  • 3估值处于历史低位,目前前瞻市盈率约21.8倍,远低于其10年平均水平。
  • 4潜在增量市场,如果对华出口限制有所放宽,英伟达的增长率可能获得两位数的额外提振。

视角

激进增长派

由于Vera Rubin架构的效率提升,英伟达不仅能维持垄断地位,其股价在未来两年内有望达到396至664美元,市值冲刺16万亿美元。

价值重估派

市场目前对英伟达过于悲观,其市盈率已接近普通大盘股,但在AI基础设施建设长达数年的周期中,这种“折扣”是极佳的买入机会。

多元配置派

英伟达虽是金标准,但Alphabet的TPU和博通的定制芯片在特定任务上更具成本优势,投资者应考虑分散配置以对冲风险。

历史背景

回顾过去几年的算力进化史,英伟达始终保持着极快的迭代步调。2022年推出的H100芯片奠定了大模型时代的基石;随后Blackwell架构将性能推向新高。然而,算力成本依然是阻碍AI大规模普及的瓶颈。

“Vera Rubin架构的出现,旨在通过将相同工作量所需的GPU数量减少75%,彻底改变AI的经济可行性。”

技术革新与成本飞轮

Vera Rubin平台不仅仅是GPU的升级,它是一个包含了Vera CPU、NVLink 6交换机及先进网络硬件的完整生态。其核心洞见在于:降低成本即是创造需求

当推理成本降低90%时,AI将从昂贵的实验室产物变为廉价的普惠工具,这将促使科技巨头投入更多资金构建基础设施,形成更强大的增长飞轮。

市场竞争格局

尽管英伟达占据统治地位,但竞争对手正在从“专用化”寻找突破口。谷歌的TPU(张量处理器)作为定制加速器,在运行自家Gemini模型时比通用GPU更省钱。博通则通过定制化ASIC芯片,为那些追求极致效能的客户提供了英伟达之外的选择。

时间线

关键里程碑

  • 1

    2022年

    发布H100架构,英伟达正式确立AI算力霸主地位。

  • 2

    2025年8月

    股价进入长达半年的平台期,市场开始质疑其增长持续性。

  • 3

    2026年下半年

    Vera Rubin架构芯片预计开始量产出货,开启新一轮业绩爆发。

  • 4

    2030年

    全球AI数据中心资本支出预计规模将达到3万亿至4万亿美元。

Q&A

Q: 英伟达的股价现在算贵吗?

A: 从数据看,英伟达目前的前瞻市盈率约为21.8倍,这与标普500指数的21.2倍基本持平。考虑到英伟达70%以上的营收增速,其估值甚至可以被称为“廉价”。

Q: 为什么Rubin架构对AI公司这么重要?

A: 它极大地提高了训练效率。以前需要4台Blackwell服务器完成的工作,现在可能只需要1台Rubin服务器,这不仅节省了电费,还缩短了模型迭代的时间。

你知道吗?