OpenAI的万亿级AI芯片布局:联手博通、英伟达与AMD,重塑半导体格局

近期,半导体行业因 OpenAI 的一系列重磅合作而震动。这家人工智能巨头宣布与博通 (Broadcom) 达成一项价值高达5000亿美元的协议,共同设计和部署定制化AI芯片,此举旨在为其庞大的AI模型提供更高效的算力支持。这项合作只是OpenAI宏大计划的一部分,该公司还与英伟达 (Nvidia)AMD 签订了巨额芯片采购协议,计划在未来十年内投资超过1.5万亿美元用于半导体和基础设施建设。这些交易不仅极大地推动了相关公司股价,尤其是博通股价应声大涨,也凸显了AI发展对尖端计算资源近乎无限的需求,预示着整个半导体行业的格局正在被重塑。

要点

    • 1OpenAI博通达成战略合作,将共同开发和部署 10吉瓦 的定制化AI芯片(ASICs),以加速其大型语言模型的运算。
    • 2除了博通,OpenAI还与英伟达AMD签订了大规模芯片供应协议,分别锁定了10吉瓦和6吉瓦的算力,以确保AI研发所需的庞大计算资源。
    • 3这些合作是OpenAI未来十年超过1.5万亿美元半导体与基础设施投资计划的一部分,旨在通过自研和定制芯片降低成本、提升效率。
    • 4市场反应强烈,合作消息公布后,博通股价飙升超过10%,整个半导体板块也受到提振,显示出投资者对AI硬件前景的极大信心。

视角

OpenAI 首席执行官 Sam Altman

通过与博通合作,我们可以将开发AI模型时学到的经验直接嵌入硬件中,从而解锁新的能力和智能水平,最终实现性能更好、速度更快、成本更低的模型。

Broadcom 首席执行官 Hock Tan

如果你制造自己的芯片,你就控制了自己的命运。这次合作验证了定制加速器和以太网网络在AI数据中心的重要性。

市场分析师 Ben Reitzes (Melius Research)

分析师认为,博通凭借其在定制芯片领域的优势,最终可能占据AI芯片市场约30%的份额,成为AI基础设施领域的关键玩家。

OpenAI 的一系列举动清晰地表明,获取海量且高效的算力是当前人工智能发展的核心瓶颈。通过与行业内所有主要芯片制造商建立合作,OpenAI 不仅确保了供应,更在技术路线上进行了多元化布局。

商业角度

OpenAI 的策略是“多管齐下”,同时与英伟达AMD博通三大巨头签订协议。这不仅是为了分散供应链风险,避免过度依赖任何一家供应商(尤其是目前在AI训练领域占主导地位的英伟达),更是基于技术和成本的考量。英伟达的GPU是通用AI计算的王者,而与博通合作开发的定制ASIC芯片则能在特定任务(如AI推理)上实现更高的能效和更低的成本。这种混合搭配的策略,让OpenAI能够根据不同任务的需求,优化其庞大的计算集群,最终控制其惊人的运营成本。

通过与所有最大的芯片制造商达成交易,OpenAI 将拥有源源不断的尖端AI芯片来驱动其大型语言模型。

技术细节

这次合作的核心是ASIC(专用集成电路)。与英伟达的GPU(图形处理器)不同,ASIC是为特定任务量身定制的芯片。GPU功能强大且灵活,适合处理各种复杂的计算任务,尤其是在AI模型训练阶段。然而,当模型训练完成并投入使用(即“推理”阶段)时,其任务变得相对固定。这时,为该任务专门设计的ASIC就能以更低的功耗完成同样的工作。OpenAI借鉴了谷歌通过自研芯片(TPU)降低成本的成功经验,与博通合作开发定制芯片,目的就是为了在未来大规模部署AI服务时,能够显著降低能耗和成本。

Q&A

Q: 为什么OpenAI需要这么多来自不同公司的芯片?

A: 这是为了确保庞大算力的稳定供应,并降低对单一供应商的依赖。更重要的是,不同类型的芯片(如Nvidia的GPU和Broadcom的ASIC)各有优势。通过组合使用,OpenAI可以针对AI训练和推理等不同阶段优化成本和效率,实现整体性能最大化。

Q: 这对普通人意味着什么?

A: 简单来说,更强大、更高效的芯片意味着AI服务(如ChatGPT)的响应速度会更快,能力会更强,并且长期来看使用成本有望降低。这些基础设施的建设,是未来更先进、更普及的AI应用得以实现的基础。

你知道吗?