AISLE 最新文章称,他们用多款小型开源模型复现了 Anthropic Mythos 展示的多类漏洞分析结果,说明 AI 网络安全能力并非线性依赖超大模型,真正护城河更可能在系统编排和安全工作流。
在 Anthropic 发布 Claude Mythos Preview 与 Project Glasswing 后,AI 网络安全被迅速推向新高潮。但安全公司 AISLE 随后给出一篇颇具冲击力的对照研究:他们将 Mythos 展示的部分漏洞案例拆解后,交给多款成本更低、参数更小的开源模型处理,结果显示 8 款模型都识别出了其旗舰 FreeBSD 漏洞链,部分模型还复原了 OpenBSD 多年老漏洞的关键分析路径。AISLE 的核心判断是,AI 安全能力呈现明显“锯齿状”分布,不同任务上的最优模型并不稳定,因此真正难复制的并不是某一个超大模型,而是围绕扫描、验证、修复、分级和维护者协作构建起来的完整系统。这个结论很重要,因为它会改写 AI 安全创业公司的成本结构和竞争逻辑:未来比拼的不只是模型采购能力,更是工程集成、数据流转和专业安全经验的沉淀。
订阅工具岛 Newsletter
每周五发送最新的 AI 工具榜单、内容模板与增长实验,帮助你快速验证想法。