Anthropic CEO Dario Amodei 发表声明,回应与美国国防部的合作争议。该公司坚持在部署 Claude 模型时保留两项安全护栏:禁止大规模国内监控和完全自主武器。尽管面临被移除出国防系统的威胁,Anthropic 拒绝妥协,强调 AI 技术必须符合民主价值观和当前技术可靠性。
我深信,利用 AI 保卫美国及其他民主国家、击败专制对手,具有至关重要的生存意义。
因此,Anthropic 积极行动,将我们的模型部署到国防部和情报界。我们是首家在政府机密网络中部署模型的尖端 AI 公司,也是首家在国家实验室部署模型,并为国家安全客户提供定制模型的公司。Claude 已广泛部署于国防部及其他国家安全机构,用于关键任务应用,如情报分析、建模与仿真、作战规划、网络行动等。
Anthropic 也采取行动捍卫美国在 AI 领域的领先地位,即使这有时违背公司的短期利益。我们选择放弃数亿美元收入,以切断与中国共产党有关联的公司对 Claude 的使用(其中一些已被国防部指定为中国军事公司),阻止了中共支持的试图滥用 Claude 的网络攻击,并倡导对芯片实施严格的出口管制,以确保民主优势。
Anthropic 理解,军事决策由国防部而非私营公司做出。我们从未对特定军事行动提出异议,也未试图以临时方式限制我们技术的使用。
然而,在少数情况下,我们认为 AI 可能削弱而非捍卫民主价值观。一些用途也超出了当前技术能够安全可靠执行的范围。我们与国防部的合同中从未包含以下两种用例,我们认为现在也不应包含:
据我们所知,这两项例外至今并未阻碍我们模型在军队中的加速采用和使用。
国防部已声明,他们只与同意“任何合法用途”并在上述情况下移除安全护栏的 AI 公司签约。他们威胁说,如果我们保留这些护栏,将把我们从他们的系统中移除;他们还威胁要指定我们为“供应链风险”——这一标签通常保留给美国对手,从未应用于美国公司——并援引《国防生产法》强制移除护栏。后两项威胁本质上是矛盾的:一个将我们标记为安全风险;另一个将 Claude 标记为国家安全必需品。
无论如何,这些威胁不会改变我们的立场:我们无法昧着良心同意他们的要求。
选择最符合其愿景的承包商是国防部的特权。但鉴于 Anthropic 技术为我们军队提供的巨大价值,我们希望他们重新考虑。我们的强烈偏好是继续为国防部和我们的作战人员服务——同时保留我们要求的两项安全护栏。如果国防部选择移除 Anthropic,我们将努力确保顺利过渡到其他提供商,避免对正在进行的军事规划、行动或其他关键任务造成任何干扰。只要需要,我们的模型将按照我们提出的广泛条款提供。
我们仍准备继续支持美国国家安全的工作。
免费获取企业 AI 成熟度诊断报告,发现转型机会
关注公众号

扫码关注,获取最新 AI 资讯
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断