
AI安全危机与人才流失
在人工智能技术飞速发展的同时,其潜在风险也日益引发全球关注。近期,OpenAI的一则高薪招聘公告,将这家顶尖AI公司内部的安全挑战与人才动荡推向了聚光灯下。
- 关键安全隐忧驱动紧急招聘
- 安全团队离职潮为公告蒙上阴影
OpenAI于12月27日宣布设立一个高风险领导职位——“准备状态主管”,并提供高达55.5万美元的年薪,以监管其快速发展的AI系统所带来的安全风险。这一职位的设立正值公司面临与AI相关的危害日益加剧的审查,以及专注于安全的研究人员大量流失之际。
首席执行官萨姆·奥特曼在社交媒体平台X上发文承认了问题的紧迫性。他指出,AI模型“正在快速改进,目前能够完成许多伟大的事情,但也开始呈现出一些真正的挑战”。他特别提到了对心理健康的影响和网络安全漏洞,并警告称,这个职位“将是一份压力巨大的工作,入职者几乎需要立即投入深水区”。
关键安全隐忧驱动招聘
“准备状态主管”将负责领导OpenAI的准备状态框架,协调三个跟踪类别的能力评估和威胁建模:生物与化学能力、网络安全以及AI自我改进。根据职位描述,该角色需要“深厚的技术判断力”以及“跨多个风险领域指导复杂工作的能力”。
此次招聘的背景是,根据OpenAI自身于10月发布的估计,每周有超过一百万ChatGPT用户发送包含“潜在自杀计划或意图明确迹象”的信息。公司已面临多起诉讼,原告是那些在与AI聊天机器人进行大量互动后自杀的青少年家属。
安全团队离职潮为公告蒙上阴影
这一职位的设立正值OpenAI安全运营部门发生重大人事变动之际。据前研究员丹尼尔·科科塔伊洛透露,2024年,公司近一半的通用人工智能安全团队成员离职。在高级顾问迈尔斯·布伦戴奇辞职后,公司于10月解散了其AGI准备团队,布伦戴奇曾表示,“无论是OpenAI还是其他前沿实验室,都没有为先进的AI做好准备”。
前安全团队负责人扬·莱克于5月辞职,他公开批评OpenAI让“安全文化和流程”为“光鲜的产品”让路。另一位安全研究员史蒂文·阿德勒于2025年1月离职,称追求通用人工智能是一场“风险极高的赌博”。
