#Claude Mythos 之后,安全从业者凭什么不会被淘汰
上个月,Anthropic 发布了 Project Glasswing,联合 AWS、Apple、Google、Microsoft、NVIDIA、CrowdStrike、Palo Alto Networks 等十二家公司,目标是用 AI 保护全球关键基础设施的软件安全。
促成这件事的直接原因,是 Anthropic 内部训练的一个模型——Claude Mythos Preview。这个模型在 OpenBSD 中发现了一个存在 27 年的远程漏洞,在 FFmpeg 中找到了一个被自动化工具命中 500 万次却从未触发的 16 年老洞,还在 Linux 内核中自主串联多个漏洞构造了完整的提权利用链。CyberGym 漏洞复现测试得分 83.1%,SWE-bench Verified 达到 93.9%。
这些数字本身已经说明了足够多的事情,不需要我替大家感叹。我更想聊的是:看到这些数字之后,安全从业者应该怎么想这个问题。
执行层的技能,注定会被拿下
漏洞挖掘、逆向工程、渗透测试、告警研判、攻击溯源——安全行业通常把这些称为「底层技能」或「核心硬功夫」。很多人的职业自信建立在这些能力上。
但这些任务有一个共同特征:成功与否有非常明确的判定标准。漏洞挖掘要么触发崩溃拿到代码执行,要么没有;渗透测试要么拿下 shell 完成提权,要么没有;告警研判最终会确认是真是假。这种「做没做到一目了然」的特性,恰恰是 AI 最容易攻克的任务类型。Mythos 不是终点,而是起点——下一代会更强,没有悬念。
所以我们不需要再讨论「AI 能不能替代这些技能」——它能,而且会越来越彻底。值得讨论的是下一个问题:如果这些技能被接管了,安全从业者的价值锚点应该挪到哪里?
从「做事的人」到「决定做什么事的人」
执行层被接管之后,你的角色只有一个方向可以走:站在更高的角度去思考。
用一个具体的人来说。假设你是一个逆向工程师,日常就是拆二进制、分析样本。这些事情 AI 正在接管。但你并不需要转行——你需要的是开始用上级的视角来工作。
你的上级可能很少自己亲自逆向。他想的是:团队的方向该怎么定?这批样本里哪些优先级最高?组内的任务怎么分配?产出质量怎么评估?现在你手里有了五个 AI agent,产能可能是以前的好几倍。你事实上就是一个带着五个 agent 的组长——你要决定哪些事情值得做,按什么优先级做,以及怎么确保 agent 的执行结果是有效的。你对所有事情的思考高度,都要往上提一级。
当你站到上级的位置上之后,你会看到另一层东西。上级手里一直攥着很多他知道该做、但资源不够只能妥协掉的事。比如团队里做渗透的同学长期需要免杀能力,理想情况下应该把杀软的检测逻辑逆清楚,而不是靠大量样本黑盒测试碰运气。但以前逆向的人力全排满了,这个需求只能往后放。现在你有了 agent,执行力翻了好几倍,这种以前被迫妥协的事重新回到了牌桌上——你可以让 agent 去逆杀软的检测引擎,直接帮渗透的同学把免杀问题从根上解决。
同样的逻辑适用于每一个层级。组长要站在安全总监的视角去想跨组协同和预算分配,总监要站在 CISO 的视角去想公司级的安全战略。每升一级,需要综合的上下文、需要平衡的利益方、需要做的取舍都多一层。
而且——AI 把执行效率拉高之后,以前每一层领导手里那堆"知道该做但没资源做"的方向,现在全部解锁了,需要有人去填。另一面同样值得注意:当攻击者也拥有同等能力,企业面对的就不再是零星的人类黑客,而是 AI 军团级别的火力——0day 不再稀缺,渗透可以 7×24 小时不间断,传统防御体系的假设被整个掀翻,新的架构、新的策略、新的判断全得有人来做。两个角度看,事情都变多了。企业不会淘汰升维成功的人,反而对他们的需求会越来越大。真正会被淘汰的,是那些拒绝升维、死守"我就只会手动拆样本"的人。
一个所有层级都绕不开的基本功
不管你在哪一层,有一件事是通用的:你必须学会驾驭 AI agent。
前面说的一切——站在上级视角思考、发现新的方向——都建立在一个前提上:你能有效地指挥 agent 帮你执行。否则思考层次再高,落不了地也是空谈。
AI agent 不是一个工具,它更像一个员工——一个可以无限复制、要多少有多少、不眠不休的员工。但「员工多」不等于「活干得好」。任何带过团队的人都知道,一堆乌合之众的聪明人并不等于高效能的团队。你要根据每个人的特质,磨合出最好的协作方案。Agent 也一样。
你需要搞清楚的是:怎么给 agent 拆任务它的完成度最高?哪些薄弱环节需要用 Skill 去强化?Agent 的执行流程和运行环境怎么设计?怎么让多个 agent 并行跑且不互相冲突?这些问题没有开箱即用的标准答案,取决于你的具体工作任务、场景,以及你对 agent 能力边界的理解。本质上,你是在和一种全新的协作对象磨合,找到最高效的配合方式。
一个熟练驾驭 agent 的逆向工程师,产出可能抵得上过去一个组,能做的事情无论是广度还是深度都会上一大台阶——这就是杠杆。谁先拉起杠杆,谁就能成为新的超级个体。
为什么越高层的判断越难被替代
有人可能会问:AI 越来越强,我们「提高一层」的思维是不是迟早也会被淘汰?
有可能。但层次越高,这个过程大概率就越漫长。这里要回到一个关于 AI 能力的底层逻辑。
AI 之所以能快速攻克漏洞挖掘、渗透测试这些执行层任务,根本原因是这些任务的奖励信号非常清晰——做没做到一目了然,反馈闭环短,模型可以在海量尝试中快速迭代。这是强化学习最擅长的场景。
但当你沿着安全行业的层级往上看,会发现这些条件在逐层瓦解。
安全总监的日常是这样的:手里有二十个待修复漏洞,业务线在催上线,合规审计下个月到期,预算只剩这么多——先做哪个?每一个决定都牵涉多方利益的平衡:安全团队想全修,业务线想快上线,财务想控制成本,法务关心合规风险。他需要综合的上下文比工程师多了一个量级,做完决定之后对不对可能要几个月才看得出来。反馈周期已经不是分钟级,而是以季度计。
到了 CISO 这一层,抽象程度又上了一个台阶。他面对的是董事会、监管机构、业务线、技术团队之间的多方博弈,要基于不完整的信息做出影响深远的战略选择——今年的安全投入是侧重供应链安全还是 AI 安全?出了安全事件,什么时候披露、怎么披露、跟谁先沟通?安全团队要扩张还是用 AI 缩编后把预算投到别处?这些决策的反馈周期可能是一两年甚至更久,而且即使事后回头看,你也很难把结果精确归因到当初的某一个决定上——也许是执行不到位,也许是外部威胁形态变了,也许只是运气。
规律是清晰的:越往上,需要综合的上下文越多,判断就越抽象,越偏向在相互矛盾的目标之间寻找平衡,而不是在明确的标准下寻找最优解。
从 AI 训练的角度看,这意味着越往上,构造有效的训练信号就越困难。反馈周期以年为单位,强化学习无法有效迭代;因果关系高度模糊,出了事也无法归因;最致命的是,这些决策根本不存在「正确答案」,只有「在当时特定的约束条件和利益格局下相对合理的选择」——你没办法标注一个训练集告诉模型「这个决定得 +1 分,那个决定得 -1 分」。
目前,大模型厂商的主要探索方向是:用有明确奖励信号的场景(比如编码)来训练模型的通用推理能力,再期望这种能力泛化到那些没有明确奖励信号的任务上(比如高层次的判断和决策)。一旦这条路线走通,AGI 可能就真的要来了。但在走通之前,我们完全可以做出这样的判断:AI 可以在几小时内找到一个 27 年没人发现的漏洞,但它没法告诉你,考虑到你公司目前的业务阶段、合规压力、团队士气和资源约束,下一个关键的投入方向应该是什么。这类判断需要的不是更强的技术能力,而是对人、对组织、对利益格局的综合理解。
结尾
Project Glasswing 里有一个细节值得回味:Anthropic 手里有可能是目前最强的自动化漏洞挖掘引擎,它完全可以自己闷头用。但它选择拉上 12 家公司、40 多个组织,承诺 1 亿美元使用额度,给开源社区捐了 400 万。
因为发现漏洞从来不是最难的部分。修复、协调、披露、合规、推动修复落地——这些需要人与人之间的协调、组织间的信任、标准的制定。这些事情,目前没有任何 AI 能做。
AI 越强,人类在判断、协调和治理层面的价值就越大。但这个价值只属于那些愿意抬起头来重新看全局的人。