NVIDIA 推出了全球首款专为“智能代理 AI”(Agentic AI)和强化学习设计的 Vera CPU。该处理器在性能上比传统 CPU 提升了 50%,能效则直接翻倍。它的核心意义在于将 CPU 从单纯的后端支持角色,转变为驱动 AI 推理、工具调用和任务规划的主导引擎。随着阿里巴巴、字节跳动、Meta 及各大硬件厂商的全面接入,Vera 预计于今年下半年正式上市,旨在为全球 AI 工厂提供更高效率的底层架构。
为“会思考”的 AI 量身定制
在当前的 Agentic AI 时代,AI 不再只是生成文本,而是需要规划任务、运行工具、处理数据并验证结果。这些复杂的调度工作对 CPU 提出了极高的要求。
- 从辅助到驱动: NVIDIA 创始人黄仁勋指出,CPU 不再仅仅是支持模型,而是正在驱动模型。Vera 的出现让 AI 系统能够思考得更快,扩展得更远。
- 高效率的推理: 专门针对代码助手、企业级智能代理等需要频繁响应和高吞吐量的场景进行了优化。
核心技术突破
Vera 不仅仅是简单的性能堆砌,它在架构上针对 AI 任务流进行了深度定制:
- Olympus 定制核心: 拥有 88 个定制核心,支持“空间多线程”技术,能够确保在多任务并行的 AI 工厂中提供稳定、可预测的性能。
- 极致的带宽:
- 配备 LPDDR5X 内存,带宽达 1.2 TB/s,是普通 CPU 的两倍,功耗却降低了一半。
- 通过 NVLink-C2C 技术与 GPU 连接,带宽高达 1.8 TB/s,数据交换速度是传统 PCIe 6.0 的 7 倍。
- 模块化设计: 采用 NVIDIA MGX 架构,方便合作伙伴快速将其整合进现有的数据中心设计中。
行业评价与生态布局
多家科技巨头和研究机构已在早期测试中见证了 Vera 的实力:
“我们在测试中发现,Vera 在运行数据流处理任务时,延迟比其他系统降低了 5.5 倍。它代表了 CPU 架构的新方向。” —— Redpanda 首席执行官 Alex Gallego
目前,Vera 已获得产业链的全面支持:
- 云服务巨头: 阿里巴巴、字节跳动、Meta、Oracle、Cloudflare 等已开始部署。
- 硬件厂商: 戴尔、联想、惠普、超微(Supermicro)、华硕、鸿海(富士康)等正推出基于 Vera 的服务器系统。
- 科研机构: 洛斯阿拉莫斯国家实验室、德克萨斯高级计算中心(TACC)等已计划将其用于下一代科学计算系统。
关键洞察
Vera 的发布标志着 AI 基础设施重心的转移。 过去,人们往往只关注 GPU 的算力,而忽略了在复杂 AI 工作流中负责“指挥”的 CPU 瓶颈。Vera 通过解决数据传输和逻辑调度效率,让 AI 代理能够更流畅地处理现实世界中的复杂逻辑任务。对于普通用户而言,这意味着未来的 AI 助手将变得更加聪明、响应更快且更具执行力。