美国两大AI安全公司Anthropic和OpenAI在伊利诺伊州一项拟议法案上公开对立。该法案旨在保护前沿AI模型开发者免于承担大规模伤亡等“重大危害”的民事责任,前提是企业未蓄意或鲁莽行事且发布安全报告。OpenAI支持法案以降低风险并促进技术使用,而Anthropic认为责任保护过度,分歧凸显业界对AI问责的深层争议。
美国两家最具影响力的AI安全公司,就一项拟议中的伊利诺伊州法律公开产生分歧。该法律将在很大程度上保护AI开发者免于因灾难性危害(包括大规模伤亡和重大财产损失)而承担法律责任。
据《连线》杂志报道,Anthropic宣布反对伊利诺伊州参议院第3444号法案,而OpenAI对该法案表示支持。这场分歧标志着两家竞争对手在一项重大立法上罕见地公开决裂,也凸显了随着AI系统能力不断增强,业界对于如何追究AI责任的问题分歧日益加深。
wired OpenAI支持限制AI模型危害诉讼责任的法案 - WIRED

SB 3444法案名为《人工智能安全法》,由州参议员比尔·坎宁安发起,旨在保护前沿AI模型开发者免于承担该法案所定义的“重大危害”相关民事责任——所谓“重大危害”,包括造成100人或以上死亡或重伤的事件、至少10亿美元的财产损失,或利用AI研发化学、生物、放射性或核武器等情形。
这一责任豁免保护仅适用于未蓄意或鲁莽造成危害、且已在其官网发布安全与透明度报告的企业。该法案将“前沿模型”定义为任何训练计算成本超过1亿美元的AI系统,该门槛将覆盖全美最大的AI开发商,包括OpenAI、谷歌、Anthropic、xAI和Meta。



上周,OpenAI 就该法案向伊利诺伊州立法者出庭作证,表示支持。OpenAI 发言人 Jamie Radice 表示,公司支持这一方案,“因为它聚焦于最关键的问题:在降低严重危害风险的同时,仍让伊利诺伊州的个人和大小企业都能使用这项技术”。OpenAI 全球事务团队的 Caitlin Niedermeyer 也表达了支持,但同时反对“拼凑式的、不一致的州级监管要求”,呼吁建立统一的联邦监管框架。



Anthropic的立场使其与主要竞争对手直接对立。在同一场听证会上,代表Anthropic负责政府事务的塞萨尔·费尔南德斯承认,“像Anthropic这样的AI公司有责任与伊利诺伊州等州政府合作,共同制定安全框架”,但同时强调,企业应“在发布新模型时公开相关评估结果,并向州政府报告重大安全事件”。此后,Anthropic正式表态反对该法案,认为其中的责任保护条款走得太远。
这一分歧出现在Anthropic的多事之秋。该公司目前正深陷与五角大楼的法律纠纷——美国国防部以其拒绝允许旗下AI模型支持致命军事行动为由,将其列为供应链风险。与此同时,该公司近期还向一个支持AI监管候选人的政治团体捐款2000万美元。SB 3444法案的批评者警告,该法案将加重原告的举证负担,在目前尚无联邦法律明确AI系统造成大规模损害时应由谁承担责任的情况下,可能使大型AI实验室得以规避问责。



免费获取企业 AI 成熟度诊断报告,发现转型机会