五角大楼首席技术官埃米尔·迈克尔周四明确表示,与Anthropic重启谈判“绝无可能”,加剧了双方在AI军事应用上的争端。这场冲突源于Anthropic拒绝放弃伦理限制,包括禁止其技术用于自主武器和大规模监控。谈判破裂后,国防部将Anthropic列为供应链风险,并禁止军事承包商使用其产品,而Anthropic已起诉政府。法庭可能成为解决这场争议的关键场所。
五角大楼首席技术官埃米尔·迈克尔周四表示,与Anthropic重启谈判“绝无可能”,这进一步加剧了国防部与这家全球领先的AI公司之间就军方使用AI技术问题的激烈争端。
迈克尔在接受CNBC采访时说:“该公司的领导层通过泄密和恶意谈判证明了他们不想达成协议。”雅虎新闻

这场对峙可以追溯到今年1月,当时五角大楼要求Anthropic允许其Claude AI模型被用于“所有合法目的”而不受限制。Anthropic拒绝放弃两个条件:其技术不得用于完全自主的武器系统,也不得用于对美国公民的大规模监控。
迈克尔曾表示,在讨论AI如何支持特朗普总统提出的“金色穹顶”导弹防御计划时,冲突愈演愈烈。他在最近的一档播客中辩称,考虑到应对高超音速导弹只有90秒窗口期这样的场景,Anthropic的伦理防护措施是站不住脚的。“我需要一个不会在中途恐慌的人,”他说。美联社
2月27日,一份价值2亿美元的合同谈判破裂,原因是Anthropic首席执行官达里奥·阿莫代伊在五角大楼规定的最后期限前几分钟无法参加最后一次通话。国防部长皮特·赫格塞斯随后将Anthropic指定为供应链风险——这一标签通常保留给外国对手——并禁止军事承包商使用其产品。特朗普还另行下令所有联邦机构停止使用Anthropic的技术。
Anthropic于3月9日起诉特朗普政府,提起两起联邦诉讼,称政府的行为“史无前例且违法”,侵犯了其第一修正案权利。CBS新闻获得的一份日期为3月6日的五角大楼内部备忘录,命令军事指挥官在180天内从系统中移除Anthropic的AI,这些系统包括核武器、弹道导弹防御和网络战系统。
尽管存在争议,军方仍继续在与伊朗冲突相关的行动中使用Claude,该AI协助分析数据和识别潜在目标。包括OpenAI、谷歌和埃隆·马斯克的xAI在内的竞争对手已同意五角大楼的条款,其中OpenAI已在着手建立替代性机密AI系统。
迈克尔周四的言论似乎关闭了外交解决的大门,法庭很可能成为决定政府是否可以强制美国AI公司移除其安全限制——或因拒绝而惩罚它——的场所。
免费获取企业 AI 成熟度诊断报告,发现转型机会
关注公众号

扫码关注,获取最新 AI 资讯
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断