Google Research 的时间序列基础模型 TimesFM 更新到 2.5 版:参数量从 5 亿降到 2 亿,上下文长度从 2048 提升到 16k,并支持更长预测范围,体现“小而强”的基础模型演进趋势。
Google Research 在开源仓库中更新了时间序列基础模型 TimesFM 2.5。最值得关注的几点是:模型参数量从 5 亿缩减到 2 亿,但上下文长度从 2048 提升到 16k;同时增加了可选的 3000 万参数 quantile head,用于更长跨度的分位数预测,并重新调整了推理接口与若干预测相关开关。简单说,它不是一味堆大模型,而是把“能看更长历史、做更实用预测”放在优先级前面。
这很重要,因为时间序列预测覆盖金融、零售、供应链、能源、运维监控等一大批真实商业场景。相比通用大模型,垂直基础模型如果能在更低参数量下拿到更强效果,商业落地价值往往更直接。TimesFM 持续更新,说明 Google 正在把这类能力往更可用、更易部署的方向推进。
对行业的实际影响是,企业做需求预测、容量规划、库存优化时,会有更多开源方案可选;同时也会刺激更多“行业专用基础模型”出现。未来比拼的不只是模型大不大,而是谁能在特定任务里更准、更省、更稳定。
订阅工具岛 Newsletter
每周五发送最新的 AI 工具榜单、内容模板与增长实验,帮助你快速验证想法。
继续探索
继续你的阅读之旅
Ollama 预览接入 MLX,Apple Silicon 本地大模型推理再提速
Ollama 宣布在预览版中接入苹果机器学习框架 MLX,让 Apple Silicon 设备上的本地模型运行更快、更贴近系统底层能力,对 Mac 端本地 AI 开发者和工具链是直接利好。
GitHub 撤回 Copilot 在 PR 中的“提示广告”,开发者反弹奏效
GitHub 在开发者反对后撤回了 Copilot 在拉取请求中插入提示内容的做法。事件显示,AI 功能一旦越过协作边界、干扰代码评审流程,用户容忍度会迅速下降。