Google Research 推出的时间序列基础模型 TimesFM 发布了 2.5 版本。新版本在参数量减半的同时,将上下文长度提升了 8 倍,支持更长周期的预测任务,并提供了更灵活的预测选项。该模型已开源,旨在为开发者提供高性能且易于部署的时间序列预测工具。
核心进化:更轻、更长、更强
相比之前的 2.0 版本,TimesFM 2.5 在架构和性能上进行了多项关键改进:
- 参数规模大幅缩减:模型参数从 5 亿降至 2 亿,在保持性能的同时显著降低了推理成本和硬件门槛。
- 记忆长度跨越式提升:支持的上下文长度从 2,048 步跃升至 16,000 步,这意味着模型可以同时参考更久远的历史数据。
- 更深远的预测视野:通过新增的 3000 万参数的分位数磁头(Quantile Head),支持最长 1,000 步 的连续分位数预测。
关键功能与易用性改进
除了核心参数的优化,新版本在实际应用逻辑上也做了减法和加法:
- 简化输入流程:正式移除了频率指示器(Frequency Indicator),减少了数据预处理的复杂性。
- 回归协变量支持:通过 XReg 重新加入了对协变量(外部变量)的支持,使模型能够考虑天气、节假日等额外信息。
- 双框架适配:同时提供 PyTorch 和 Flax 接口,其中 Flax 版本可实现更快的推理速度。
TimesFM 2.5 在减小模型体量的同时,大幅扩展了模型“观察过去”和“预见未来”的边界,是目前长序列预测任务中的有力工具。
开发者接入指南
TimesFM 2.5 已经完全开源,开发者可以通过以下途径快速集成:
- 代码获取:直接从 GitHub 仓库克隆,支持通过
uv快速配置虚拟环境。 - 模型权重:托管在 Hugging Face 平台,支持直接调用。
- 云端集成:对于企业用户,TimesFM 也作为官方产品集成到了 Google BigQuery 中,方便进行大规模数据分析。
加粗提醒:如果你正在处理超长周期的工业传感器数据或细颗粒度的金融数据,1.6 万步的上下文支持将是该模型最核心的竞争优势。