美国国防部长皮特·赫格塞斯宣布将 AI 公司 Anthropic 列为供应链风险,原因是双方在 Claude 模型使用上存在分歧。Anthropic 拒绝将模型用于大规模国内监控和全自主武器,并称此举史无前例且不合法。公司表示将诉诸法律挑战,并强调普通客户不受影响。
今天早些时候,美国国防部长皮特·赫格塞斯在 X 上发文,宣布指示国防部将 Anthropic 列为供应链风险。这一行动源于双方长达数月的谈判陷入僵局,Anthropic 对其 AI 模型 Claude 的合法使用提出了两项例外要求:禁止用于大规模国内监控美国公民和全自主武器。
我们尚未收到国防部或白宫关于谈判状态的直接沟通。
我们一直本着诚意与国防部进行谈判,明确表示除了上述两项狭隘例外,我们支持所有合法的 AI 国家安全应用。据我们所知,这些例外至今未影响任何政府任务。
我们坚持这两项例外,原因有二。首先,我们认为当前的前沿 AI 模型可靠性不足以用于全自主武器。允许现有模型如此使用将危及美国军人和平民的安全。其次,我们认为大规模国内监控美国公民侵犯了基本权利。
将 Anthropic 列为供应链风险将是史无前例的行动——这一措施历来仅针对美国对手,从未公开应用于一家美国公司。我们对事态发展深感遗憾。作为首家在美国政府机密网络部署模型的 AI 公司,Anthropic 自 2024 年 6 月以来一直支持美国军人,并有意继续这样做。
我们认为这一认定既缺乏法律依据,也为任何与美国政府谈判的美国公司树立了危险的先例。
国防部的任何恐吓或惩罚都不会改变我们在大规模国内监控或全自主武器上的立场。我们将在法庭上挑战任何供应链风险认定。
这对我们的客户意味着什么
赫格塞斯部长暗示,这一认定将限制任何与军方有业务往来者与 Anthropic 合作。部长并无法定权力支持这一说法。根据《美国法典》第 10 编第 3252 条,供应链风险认定在法律上仅适用于 Claude 作为国防部合同的一部分使用——它不影响承包商如何使用 Claude 服务其他客户。
实际上,这意味着:
我们的销售和支持团队随时准备回答您的问题。
我们衷心感谢我们的用户,以及近日发声支持的行业同行、政策制定者、退伍军人和公众。谢谢。最重要的是,我们的首要任务是保护客户免受这些非常事件造成的干扰,并与国防部合作确保平稳过渡——为他们、为我们的军队、为美国军事行动。
免费获取企业 AI 成熟度诊断报告,发现转型机会
关注公众号

扫码关注,获取最新 AI 资讯
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断