Anthropic 发布新版 Responsible Scaling Policy(RSP),把前沿 AI 系统的风险治理框架进一步制度化。随着模型能力不断逼近高风险区间,安全规则正在从“附加项”变成产品主流程。
Anthropic 发布了更新版 Responsible Scaling Policy,也就是其前沿模型风险治理框架。官方将这次更新定义为一次“重要调整”,核心目的是更系统地识别和缓解前沿 AI 系统可能带来的灾难性风险。虽然外界通常更关注模型发布和能力跃迁,但 RSP 这类文件其实决定了企业在什么条件下训练、评估、部署更强模型,以及一旦触碰高风险阈值要采取哪些限制措施。
它之所以重要,是因为大模型行业已经走到“能力竞赛”和“治理竞赛”并行的阶段。越是头部实验室,越需要把风险评估写进机制,而不是等争议出现后再补规则。Anthropic 主动更新 RSP,也是在向监管者、企业客户和合作伙伴释放信号:安全治理要跟着模型能力同步升级。
从影响看,这会继续推动行业把模型红线、评估门槛和发布条件标准化。对企业采购方来说,治理框架会越来越成为选型依据;对竞争对手来说,安全透明度也会成为新的比较维度,而不只是跑分和价格。
来源:Anthropic
订阅工具岛 Newsletter
每周五发送最新的 AI 工具榜单、内容模板与增长实验,帮助你快速验证想法。
继续探索
继续你的阅读之旅
Ollama 预览接入 MLX,Apple Silicon 本地大模型推理再提速
Ollama 宣布在预览版中接入苹果机器学习框架 MLX,让 Apple Silicon 设备上的本地模型运行更快、更贴近系统底层能力,对 Mac 端本地 AI 开发者和工具链是直接利好。
GitHub 撤回 Copilot 在 PR 中的“提示广告”,开发者反弹奏效
GitHub 在开发者反对后撤回了 Copilot 在拉取请求中插入提示内容的做法。事件显示,AI 功能一旦越过协作边界、干扰代码评审流程,用户容忍度会迅速下降。