Ollama 宣布在预览版中接入苹果机器学习框架 MLX,让 Apple Silicon 设备上的本地模型运行更快、更贴近系统底层能力,对 Mac 端本地 AI 开发者和工具链是直接利好。
Ollama 宣布其 Apple Silicon 版本开始预览接入 MLX,这是苹果推出的机器学习框架,专门针对自家芯片做优化。官方给出的核心变化不是简单“支持苹果芯片”,而是把底层推理能力进一步迁到 MLX 之上,目标是让本地模型运行获得更高吞吐、更低延迟,以及更好的设备适配表现。对于已经在 Mac 上跑本地模型的开发者来说,这意味着在不改使用习惯的前提下,就可能拿到更好的推理效率。
这件事重要,在于本地 AI 的竞争已经从“能不能跑”进入“跑得够不够快、够不够省资源”。过去很多团队在 Apple 生态做本地推理,会在易用性和性能之间做取舍;Ollama 如果把 MLX 封装成熟,就相当于继续降低本地部署门槛。对独立开发者、AI 工具作者和重视隐私的企业用户来说,本地运行大模型会变得更有吸引力。
实际影响上,Mac 可能继续成为 AI 开发和个人工作流自动化的重要终端。围绕 Ollama 的桌面应用、代理工具、RAG 和本地工作流产品,都可能因此受益;而其他本地推理框架也会被迫加快针对苹果生态的优化节奏。
订阅工具岛 Newsletter
每周五发送最新的 AI 工具榜单、内容模板与增长实验,帮助你快速验证想法。
继续探索
继续你的阅读之旅
GitHub 撤回 Copilot 在 PR 中的“提示广告”,开发者反弹奏效
GitHub 在开发者反对后撤回了 Copilot 在拉取请求中插入提示内容的做法。事件显示,AI 功能一旦越过协作边界、干扰代码评审流程,用户容忍度会迅速下降。
Google Research 开源新版 TimesFM,参数更小但上下文拉到 16k
Google Research 的时间序列基础模型 TimesFM 更新到 2.5 版:参数量从 5 亿降到 2 亿,上下文长度从 2048 提升到 16k,并支持更长预测范围,体现“小而强”的基础模型演进趋势。