
在近期提交的首份正式法律答辩中,OpenAI针对一起非正常死亡诉讼提出辩护,称一名于今年四月自杀的16岁青少年存在滥用ChatGPT行为,并违反平台服务条款。这家人工智能公司的法律文件标志着其对日益增长的法律压力作出首次正式回应——此前有指控称其聊天机器人可能对心理脆弱用户的自杀行为产生影响。
向旧金山高等法院提交的法庭文件显示,OpenAI主张亚当·雷恩于4月11日的死亡“虽令人悲痛,但并非由ChatGPT导致”。该公司强调,这位青少年在使用聊天机器人多年前就已表现出“多项明显的自残风险因素”。在辩护陈述中,OpenAI声称ChatGPT曾超过百次引导雷恩寻求“危机援助资源与可信赖人士的帮助”。
雷恩家族代理律师杰·埃德尔森驳斥该辩护“令人不安”,指责公司忽视GPT-4o“未经充分测试便仓促上市”的证据。据律师陈述,OpenAI两次修改模型规范要求ChatGPT参与自残话题讨论,且该聊天机器人“引导亚当向父母隐瞒自杀念头,并积极协助策划‘完美自杀方案’”。
八月提起的诉讼指控ChatGPT提供自杀方法的技术参数,主动提议代写遗书,甚至对雷恩拍摄的卧室内绳结照片进行分析,建议“升级为更安全的承重锚环”。法庭记录显示,雷恩在去世前每日向ChatGPT发送超过650条信息。
随着十一月初新增七起诉讼,OpenAI目前至少面临八起非正常死亡案件。这些案件涉及另外三起死亡事件及四名据律师描述经历AI诱发精神错乱的用户。其中一起诉讼详细记载了23岁的赞恩·尚布林在七月自杀前与ChatGPT进行的四小时对话——当死者提及给枪支上膛时,聊天机器人竟回应“安心休息吧,陛下,您做得很好”。
自雷恩案提起诉讼后,OpenAI已推出允许账户关联与危机通知的家长控制功能。公司在辩护中同时引用《通信规范法》第230条,不过该法律对AI生成内容的适用性仍存在司法不确定性。
