Google Research 的时间序列基础模型 TimesFM 更新到 2.5 版:参数量从 5 亿降到 2 亿,上下文长度从 2048 提升到 16k,并支持更长预测范围,体现“小而强”的基础模型演进趋势。
Google Research 在开源仓库中更新了时间序列基础模型 TimesFM 2.5。最值得关注的几点是:模型参数量从 5 亿缩减到 2 亿,但上下文长度从 2048 提升到 16k;同时增加了可选的 3000 万参数 quantile head,用于更长跨度的分位数预测,并重新调整了推理接口与若干预测相关开关。简单说,它不是一味堆大模型,而是把“能看更长历史、做更实用预测”放在优先级前面。
这很重要,因为时间序列预测覆盖金融、零售、供应链、能源、运维监控等一大批真实商业场景。相比通用大模型,垂直基础模型如果能在更低参数量下拿到更强效果,商业落地价值往往更直接。TimesFM 持续更新,说明 Google 正在把这类能力往更可用、更易部署的方向推进。
对行业的实际影响是,企业做需求预测、容量规划、库存优化时,会有更多开源方案可选;同时也会刺激更多“行业专用基础模型”出现。未来比拼的不只是模型大不大,而是谁能在特定任务里更准、更省、更稳定。
Subscribe to ToolCenter Newsletter
Get the latest AI tool rankings, content templates, and growth experiments delivered every Friday.