Synth Daily

Microsoft 发布用于 AI 推理的强劲新芯片

微软发布了其最新的人工智能芯片 Maia 200,专为扩展和优化 AI 推理任务而设计。这款芯片通过显著提升的性能和效率,旨在运行更强大的 AI 模型,同时降低功耗和运营成本。作为微软自研芯片战略的一部分,Maia 200 将与谷歌的 TPU 和亚马逊的 Trainium 等产品直接竞争,并已在微软内部的 Copilot 等服务中投入使用。

为 AI 推理而生的芯片

AI 推理 是指运行一个已经训练好的模型所需的计算过程,它与训练模型的巨大算力需求有所不同。随着 AI 应用的普及,推理成本已成为企业运营开销中日益重要的一部分。

Maia 200 是微软对此趋势的回应,其设计目标是让 AI 业务运行得更流畅、成本更低。

  • 强大的硬件规格: 芯片集成了超过 1000 亿个晶体管,性能远超其上一代产品 Maia 100。
  • 高效运行大型模型: 微软称,单个 Maia 200 节点就能轻松运行当前最大的 AI 模型,并为未来更大的模型预留了空间。
  • 降低成本和功耗: 通过优化推理过程,该芯片有助于企业减少在 AI 运算上的硬件和电力开销。

微软希望 Maia 200 能够成为优化方案的一部分,让 AI 业务在减少中断和降低功耗的情况下运行。

日益激烈的自研芯片竞争

发布自研芯片是科技巨头减少对英伟达(Nvidia)等外部供应商依赖的普遍趋势。通过设计自己的硬件,公司可以更好地控制成本和供应链。

Maia 200 的推出使微软直接进入了这个竞争激烈的领域,其主要对手包括:

  • 谷歌的 TPU: 谷歌的张量处理单元,通过其云服务提供算力。
  • 亚马逊的 Trainium: 亚马逊自家的 AI 加速器芯片。

微软指出,Maia 200 在特定的性能指标上,表现优于亚马逊和谷歌的同类最新芯片,显示出其强大的竞争力。

实际应用与开放生态

Maia 200 并非仅仅停留在概念阶段,它已经投入实际使用。

  • 内部应用: 该芯片已为微软的 超级智能团队Copilot 聊天机器人 提供算力支持。
  • 开放合作: 微软已向开发者、学术机构和前沿 AI 实验室发出邀请,鼓励他们使用 Maia 200 的 软件开发工具包(SDK),以促进更广泛的创新和应用。