三名美国青少年对埃隆·马斯克的 xAI 公司提起集体诉讼,指控其 Grok 聊天机器人被用于生成他们未成年时的露骨色情图像。诉讼称 xAI 故意助长儿童性虐待材料的制作和传播,这起案件是 Grok 面临的一系列法律挑战中的最新一起,凸显了 AI 图像生成技术的监管难题。
来自田纳西州的三名青少年对埃隆·马斯克的 xAI 公司提起集体诉讼,指控该公司的 Grok 聊天机器人被用于生成他们未成年时的露骨色情图像。该诉状于周一在美国加州北区地方法院提交,指控 xAI 故意助长制作和传播儿童性虐待材料。
匿名原告称,一名人员(最终被逮捕)将他们的 Instagram 照片与 Grok 的图像生成工具相结合,制作出他们的露骨描绘图像,这些图像随后在 Discord 和 Telegram 上传播。根据诉状,部分图像在在线聊天室中被用于交换其他儿童性虐待材料。

诉讼指控 xAI "看到了一个商业机会",选择利用该技术的功能,而不是安装行业标准的安全防护措施。诉状称,xAI 还 "将其危险的 AI 技术授权并出售给第三方公司牟利,这些公司通常位于海外",这些公司出售订阅服务,使客户能够制作剥削性内容,据彭博法律报道。
诉状指出:"一个能够生成成人性化图像的模型无法被限制生成涉及未成年人的儿童性虐待材料(CSAM)",据合众国际社报道。原告寻求代表全国范围内所有童年照片被 xAI 工具篡改以生成性化内容的受害者。
代表原告的律师瓦妮莎·贝尔-琼斯告诉合众国际社:"这些年轻人正面临着终身困扰——这些看似儿童身体的性化图像会一直存在于互联网上。如果没有 xAI 推出的这个工具,这一切都不可能实现,而 xAI 完全知道该工具有生成此类材料的可能性。"

这起诉讼是针对 xAI 的 Grok 图像生成功能的一系列法律诉讼中的最新一起。1 月份还有一起单独的集体诉讼,由成年受害者提起,指控 Grok 生成了数百万张未经同意的性化深度伪造图像。阿什莉·圣克莱尔(Ashley St. Clair),马斯克其中一个孩子的母亲,也起诉了 xAI,因为据报道 Grok 生成了她的露骨图像,其中包括她 14 岁时拍摄的照片。
数字仇恨对抗中心(Center for Countering Digital Hate)估计,Grok 在 2025 年 12 月下旬至 2026 年 1 月初的 11 天期间,生成了大约 300 万张性化图像,其中约 23,000 张似乎描绘了儿童。欧洲、亚洲和美洲的监管机构已经展开调查,由 35 个美国州总检察长组成的联盟要求 xAI 采取行动,阻止 Grok 创建此类内容。


在国会山,《DEFIANCE 法案》——该法案将赋予非自愿性露骨深度伪造内容受害者提起诉讼的权利——已于 1 月份在参议院获得一致通过,目前正等待众议院审议,两党问题解决者核心小组本月早些时候对该法案表示支持。去年签署成为法律的《Take It Down 法案》要求平台删除此类内容,但并未直接涉及 AI 公司生成此类内容的法律责任。
周一提交的诉状对 xAI 提出了 13 项指控,包括传播儿童色情内容和过失行为,以及根据《玛莎法》、《贩运受害者保护法》和加州《不正当竞争法》提出的索赔。马斯克未被列为被告。xAI 尚未立即回应置评请求。

免费获取企业 AI 成熟度诊断报告,发现转型机会
关注公众号

扫码关注,获取最新 AI 资讯
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断