跳过正文

OpenAI天价挖角Anthropic安全专家:AI安全进入军备竞赛时代

OpenAI刚刚开了一个让人无法拒绝的价码:55.5万美元年薪,从Anthropic手里挖走了AGI安全专家Dylan Scandinaro,任命其为"应急准备负责人"。这不仅是薪资数字的震撼,更是一个明确的信号——AI安全已经从边缘的合规 checklist 变成了核心战略资产。

高薪背后的安全焦虑

55.5万美元在AI研究岗里属于顶薪区间,OpenAI愿意为这个职位支付C-level待遇,说明2023年底那场"宫斗危机"后,Sam Altman真的怕了。当时Ilya Sutskever等人正是以"安全治理失控"为由发难,现在OpenAI用真金白银买"安全叙事",既是对内部的亡羊补牢,也是对外部监管机构的防御性姿态。

更讽刺的是人才流向的逆转。过去几年,AI安全领域的顶尖人才通常是从OpenAI流向Anthropic——后者由OpenAI前联合创始人Dario Amodei创立,一直以"Constitutional AI"和审慎的安全文化著称,被视为有效利他主义(EA)的大本营。现在OpenAI反向挖角,意味着Anthropic不再是安全人才的唯一圣地,也暗示OpenAI正在系统性地吸收竞争对手的方法论,试图将"安全"从意识形态分歧转化为可落地的技术标准。

行业规则的改写

这笔招聘将彻底改写AI安全人才的市场定价。当Head of Preparedness这类职能获得准高管待遇,意味着整个行业的安全治理正在从"先构建再修补"转向"并行安全"(Safety by Design)。Google DeepMind和Meta AI很快将被迫跟进薪酬标准,引发一轮安全专家的哄抢。

对Anthropic而言,单一研究员的离职并不会动摇其技术路线,但这记警钟足够响亮:竞争对手正在用商业化的利润反哺安全团队建设,试图抹平双方在"安全声誉"上的差距。

接下来的六个月很关键。如果Scandinaro能在OpenAI建立起独立的灾难性风险评估体系,并获得对模型发布的实质否决权,这将成为AI治理史上的分水岭。否则,这不过是OpenAI给监管者看的一场昂贵公关秀。在AGI即将到来的前夜,安全人才的价格标签,正成为衡量一家公司诚意的唯一货币。


原文链接:OpenAI names Dylan Scandinaro, who worked on AGI safety at Anthropic, as the company’s head of preparedness (Alicia Tang/Bloomberg)

本文由 AI 辅助生成,仅供参考。