AI安全专家相继离职,OpenAI和Anthropic面临风险警告
洞察· 3 分钟阅读2 阅读
本周,Anthropic和OpenAI的关键安全研究人员相继离职,对AI发展方向发出警告。Mrinank Sharma和Zoë Hitzig等专家担忧AI技术可能被滥用,包括操纵用户和化学武器开发风险。同时,xAI也出现人才流失,行业内部紧张局势加剧。
人工智能行业正经历一波安全研究人员的离职潮。本周,Anthropic和OpenAI的关键人物相继离职,同时对AI发展方向表达了担忧。
Mrinank Sharma曾领导Anthropic的安全保障研究团队,他于周日在X平台上发布辞职信宣布离职,该信已获得超过一百万次浏览。Sharma写道:“世界处于危险之中。这不仅仅是因为AI或生物武器,而是因为此时此刻正在发生的一系列相互关联的危机。”他补充说,在公司任职期间,“我一再看到真正让我们的价值观主导我们的行动是多么困难”。Anthropic向CNN证实了Sharma的离职,并澄清他“既不是安全主管,也不负责公司更广泛的安全保障工作”。Sharma拥有牛津大学机器学习博士学位,他表示计划返回英国攻读诗歌学位。

Sharma的辞职发生在Anthropic发布其迄今为止最先进的AI模型Claude Opus 4.6的几天后。周三,该公司发布了针对这一新模型的破坏风险报告,评估了AI可能自主造成危害的场景。Anthropic破坏风险报告
报告发现Claude Opus 4.6发生“灾难性破坏”的总体风险“非常低但并非可以忽略不计”。报告详细列出了八种潜在的破坏途径,包括插入代码后门和操纵安全研究。评估还指出,在新开发的评估中,该模型显示出“被恶意滥用的敏感性提高”,包括“有意识地以小规模方式支持化学武器开发工作”的情况。不过,Anthropic坚称未在该模型中发现“危险的连贯性目标偏差”的证据。
另外,OpenAI研究员Zoë Hitzig于周三宣布辞职,同一天该公司开始在ChatGPT中测试广告。在《纽约时报》的一篇客座评论文章中,Hitzig警告称,这项技术“有可能以我们尚未完全理解的方式操纵用户”。
“OpenAI拥有有史以来最详细的人类私密思想记录。我们能否相信他们会抵制那些推动他们滥用这些数据的巨大压力?”Hitzig在X上写道。她将这一潜在发展轨迹与Facebook进行了比较,认为广告驱动的激励机制可能会随着时间的推移侵蚀公司所声明的承诺。
两家公司的人员离职事件发生之际,有报道称OpenAI于今年1月解雇了其产品政策副总裁Ryan Beiermeister,原因是她对公司计划推出的ChatGPT“成人模式”功能提出了担忧。
离职潮不仅限于OpenAI和Anthropic。本周,埃隆·马斯克旗下xAI的两位联合创始人——Tony Wu和Jimmy Ba——宣布离职,使该公司最初12人的创始团队减少至仅剩6名成员。据《金融时报》报道,Ba的离职源于内部紧张局势,xAI在与竞争对手的竞赛中面临提升AI模型性能的压力。
“2026年将会疯狂至极,很可能是我们人类未来最繁忙(也最关键)的一年,”Ba在他的X平台离职声明中写道。
想了解 AI 如何助力您的企业?
免费获取企业 AI 成熟度诊断报告,发现转型机会
//
24小时热榜
免费获取 AI 落地指南
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断

