OpenAI 解散 AI 安全使命对齐团队,两年内第二次
商业· 3 分钟阅读0 阅读
OpenAI 解散了专注于 AI 安全与人类价值观对齐的使命对齐团队,这是该公司两年内第二次解散长期 AI 安全团队。团队负责人被调任首席未来学家,其他成员也重新分配。此举恰逢行业对 AI 安全实践的担忧加剧,此前 OpenAI 的超级对齐团队也已解散。
OpenAI 已解散其使命对齐团队——这个专门负责确保 AI 系统保持安全并与人类价值观对齐的内部部门。这标志着该公司在两年内第二次解散专注于长期 AI 安全问题的团队。
据 TechCrunch 援引 Platformer 首次披露的报道,该团队负责人 Josh Achiam 已被重新分配到新设的“首席未来学家”职位。OpenAI 发言人证实,该团队其余六到七名成员已被分配到公司内的其他部门。

安全团队重组的模式
此次解散与 2024 年 OpenAI 解散超级对齐(Superalignment)团队的做法如出一辙。该团队成立于 2023 年,旨在研究 AI 带来的长期存在性威胁。该团队的两位联合负责人——联合创始人伊利亚·苏茨克维(Ilya Sutskever)和对齐研究员扬·莱克(Jan Leike)——都离开了公司,并表示担忧“安全文化和流程已经让位于华而不实的产品”。
一位 OpenAI 发言人将最新的重组描述为“快速发展的公司内部发生的常规性重组”。该发言人表示,被重新分配的团队成员在新岗位上从事类似的工作,但无法具体说明他们加入了哪些部门。
Achiam 的新职位
在周三发布的一篇博客文章中,Achiam 阐述了他对首席未来学家职位的愿景:“我的目标是支持 OpenAI 的使命——确保通用人工智能(AGI)造福全人类——通过研究世界将如何响应 AI、AGI 及更远的未来而发生变化”。
Achiam 在 OpenAI 担任 AI 安全研究科学家超过八年,于 2024 年 9 月成为使命协调负责人,他将与 Jason Pruet 合作。Jason Pruet 是一位物理学家,此前曾在国家实验室和能源部工作。目前尚不清楚 Achiam 在其未来学家职位上是否会领导一个新团队。
更广泛的行业担忧
这一时机恰逢整个行业对 AI 安全实践的审查加强。本周早些时候,Anthropic 的安全研究员 Mrinank Sharma 辞职,警告称“世界正处于危险之中”,安全团队“不断面临将最重要的事情搁置一旁的压力”。
根据 OpenAI 自己发布的职位信息,该公司的对齐团队一直负责开发“能够使 AI 在各种场景下稳健地遵循人类意图的方法,包括那些对抗性或高风险的场景”。
该公司最近因其安全承诺受到 AI 监管组织的批评,包括指控其最新模型发布可能违反了加州新 AI 安全法。
想了解 AI 如何助力您的企业?
免费获取企业 AI 成熟度诊断报告,发现转型机会
//
24小时热榜
免费获取 AI 落地指南
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断

