OpenAI 从 Anthropic 挖角安全专家,年薪超 55 万美元
商业· 3 分钟阅读1 阅读
OpenAI 聘请 Anthropic 的 AGI 安全专家 Dylan Scandinaro 担任准备工作负责人,年薪最高可达 55.5 万美元外加股权。此举正值 OpenAI 面临安全批评和 IPO 准备的关键时刻,旨在加强其安全框架,应对即将到来的强大 AI 模型。
OpenAI 从竞争对手 Anthropic 挖角了 Dylan Scandinaro,任命他为新任准备工作负责人。这一职位是 AI 行业最受关注的岗位之一,年基本工资最高可达 55.5 万美元,外加股权。
CEO 萨姆·奥特曼在 X 平台宣布了这一任命,称 Scandinaro 是“迄今为止我在任何地方遇到的最适合这一职位的人选”。奥特曼写道:“事态即将快速发展,我们很快将使用极其强大的模型。”“这将需要相应的安全保障措施,以确保我们能够继续带来巨大的益处。”

Scandinaro 此前在 Anthropic 担任 AGI 安全相关职务,而 Anthropic 是 OpenAI 在生成式 AI 竞赛中的主要竞争对手。Anthropic 由前 OpenAI 研究员 Dario 和 Daniela Amodei 创立,两人因安全担忧离开了 OpenAI,该公司以更注重安全的 AI 开发者形象著称。
在 X 平台的一篇帖子中,Scandinaro 承认了他新职位的重要性。他写道:“AI 正在快速发展。潜在的好处是巨大的——极端且不可逆转的危害也同样巨大。有大量的工作要做,而时间却不多了。”
自从 OpenAI 前安全准备负责人 Aleksander Madry 于 2024 年 7 月转任新职位以来,这个职位一直空缺。该公司于 12 月发布了这一备受瞩目的招聘信息,Altman 警告潜在候选人这将是“一份压力很大的工作”,他们需要“几乎立即跳入深水区”。
作为准备工作负责人,Scandinaro 将监督 OpenAI 的准备框架——该公司用于追踪可能造成严重危害新风险的前沿 AI 能力的系统。根据最初的职位描述,该角色涉及构建和协调能力评估、威胁模型和缓解措施,以形成“一个连贯、严格且可操作扩展的安全流程”。
此次招聘正值 OpenAI 因其 AI 安全方法而面临持续批评之际。前员工指责该公司将“炫目的产品”置于安全研究之上,据前研究员 Daniel Kokotajlo 称,到 2024 年,曾专注于长期 AI 风险的员工中近半数已离开公司。
“安全文化和流程已经让位于炫目的产品,”OpenAI 前安全团队联合负责人 Jan Leike 在 2024 年离职时写道。
这一消息发布之际,OpenAI 正在为 2026 年第四季度可能进行的首次公开募股做准备。据《华尔街日报》报道,这家目前估值约 5000 亿美元的初创公司正在与投资银行进行非正式讨论,并已扩充其财务团队为上市做准备。
OpenAI 正在争取抢在 Anthropic 之前上市,两家公司都希望成为首家上市的主要生成式 AI 初创公司。该公司还在寻求在 IPO 前融资轮中筹集高达 1000 亿美元的资金,届时公司估值可能达到 8300 亿美元。
阿尔特曼在谈到斯坎迪纳罗时写道:“他肯定面临着艰巨的任务,但今晚我会睡得更安稳。”
想了解 AI 如何助力您的企业?
免费获取企业 AI 成熟度诊断报告,发现转型机会
//
24小时热榜
免费获取 AI 落地指南
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断

