这款面向 AI 研究人员的英伟达 DGX Spark 桌面“AI 超级计算机”,是一款基于 ARM64 架构的强大设备。尽管其硬件配置(如 128GB 统一内存和 Blackwell GPU)非常强悍,但在 ARM 架构上使用 CUDA 生态仍面临挑战。用户初期通过 Docker 容器、Claude Code 编程助手和 Tailscale 远程访问工具等方式解决了依赖和配置难题。随着 Ollama、llama.cpp 等关键项目的迅速跟进,该设备的软件生态正在快速完善,预示着其未来潜力巨大。
初步印象与硬件规格
这款设备大小与 Mac mini 相似,但其科幻感十足的纹理表面让人耳目一新。它将一台非常强大的机器塞进了一个小盒子里。
- 架构: aarch64 (ARM64)
- CPU: 20 核 (10 个性能核心 + 10 个效率核心)
- 内存: 128GB 统一内存,可供 CPU 和 GPU 同时访问
- 存储: 4TB NVMe SSD
- GPU: NVIDIA GB10 (Blackwell 架构),拥有 119.68 GB 显存和 48 个流式多处理器
简而言之,这台机器专为 AI 研究人员设计,旨在同时满足模型训练和运行的需求。
核心挑战:在 ARM64 上运行 CUDA
过去,许多 AI 软件和教程不仅默认用户拥有英伟达 GPU,还隐含了另一个前提:机器的 CPU 是 x86 架构。这给在 ARM 架构的 Spark 上配置环境带来了许多意想不到的困难。
我曾多次因无法使用英伟达 CUDA 生态而深感沮丧。无数的库和教程都期望你能用上 CUDA,如果你没有英伟达 GPU,它们就帮不上忙了。
为了解决这个问题,英伟达官方提供的 Docker 容器起到了关键作用。通过在容器中进行操作,可以有效绕过许多依赖和兼容性问题。
实用的工具与解决方案
文档的完善
在设备刚到手时,几乎没有任何入门文档,学习曲线非常陡峭。但近期,英伟达发布了详尽的指南和手册,极大地降低了上手难度。
Claude Code:解决一切问题的助手
在摸索如何使用这台设备时,Claude Code 编程助手是绝对的救星。无论是生疏的 Ubuntu 操作、CUDA 驱动配置,还是安装特定版本的 PyTorch,它都能提供有效帮助。
由于许多实验都在一次性的 Docker 容器中进行,可以大胆地让 Claude 直接执行命令来解决问题。例如,通过以下提示,Claude 能够自动完成 llama.cpp 的编译和配置,并成功运行指定模型:
我想用 llama.cpp 运行
unsloth/Qwen3-4B-GGUF模型。请搞清楚如何在这台机器上让 llama.cpp 调用 GPU,然后安装它并运行模型。
Tailscale:随时随地访问
拥有一台本地的 AI 机器固然不错,但能从世界任何地方通过手机或笔记本电脑访问它则更为方便。Tailscale 完美地实现了这一点。只需在 Spark 上安装并登录,设备就会立即出现在其他设备的网络列表中,可以轻松通过 SSH 进行远程访问和操作。
快速发展的生态系统
随着设备禁令的解除,许多重要的 AI 项目也宣布了对 Spark 的支持,这极大地改善了其使用体验。
- Ollama: 已能开箱即用,是最早在该设备上成功运行的 LLM 工具之一。
- llama.cpp: 其创建者发布了在 Spark 上的详细基准测试结果,展示了惊人的性能,例如处理 GPT-OSS 20B 模型时,提示读取速度达到 约 3600 tokens/秒。
- LM Studio: 现已提供适用于 Spark 的版本。
- vLLM: 作为流行的 LLM 服务引擎,英伟达官方已为其推出了 vLLM NGC 容器。
是否值得购买?
目前给出明确的购买建议还为时过早。由于对 CUDA、ARM64 和 Ubuntu GPU 环境缺乏经验,上手过程充满挑战。
然而,生态系统在短时间内的巨大进步 非常令人鼓舞。可以预见,在未来几周内,这台机器的支持情况会变得更加明朗。