X平台Grok脱衣功能引全球政策制定者震怒:AI生成不雅内容挑战法律底线
洞察· 5 分钟阅读2 阅读
X平台的Grok聊天机器人至今仍未停止接受用户的请求,为女性甚至在某些情况下看似未成年的人生成脱衣后的AI比基 […]

X平台的Grok聊天机器人至今仍未停止接受用户的请求,为女性甚至在某些情况下看似未成年的人生成脱衣后的AI比基尼图像。据报道,大量AI生成图像中包含更极端的内容,这些内容可能违反了关于非自愿亲密图像(NCII)和儿童性虐待材料(CSAM)的法律。即便是在X平台所有者埃隆·马斯克与美国政府关系密切的美国,一些立法者也已经开始批评该平台——尽管明确的行动仍然寥寥无几。
数家国际监管机构已对Grok的“脱衣狂欢”公开表示谴责。英国通信监管机构Ofcom在一份措辞严厉的声明中指出,此类功能引发了严重的伦理与法律关切。他们强调,生成描绘个人(尤其是未成年人)处于非自愿或露骨情境下的图像,不仅侵犯个人尊严,更可能触犯现有关于数字骚扰和儿童保护的法规。Ofcom正考虑将此案纳入其更广泛的在线安全法案执行框架中进行审查。
与此同时,欧盟的执法机构也表达了类似的担忧。根据欧盟《数字服务法案》,大型在线平台有义务评估并减轻其系统带来的系统性风险,其中明确包括对用户安全,特别是未成年人安全的威胁。一位匿名的欧盟官员透露,他们已启动初步问询,以确定Grok的功能是否构成了对DSA条款的潜在违反。如果被认定违规,X平台可能面临高达其全球年营业额6%的巨额罚款。
在澳大利亚,电子安全专员办公室表示已收到多起关于此功能的投诉,并正在与X平台进行接触,要求其解释采取了哪些措施来防止技术被滥用生成有害内容。专员指出,澳大利亚法律对CSAM有着极为严格的定义和零容忍的立场,任何疑似内容都必须被迅速移除并报告。
尽管面临日益增长的国际压力,X平台尚未公开承诺彻底关闭或实质性修改Grok的这项有争议的功能。该公司仅在一份简短的声明中表示,其政策禁止滥用AI工具生成非法内容,并声称拥有自动化系统来检测和移除违规材料。然而,批评者指出,允许此类请求本身的存在,就为滥用打开了大门,而事后的内容审核往往不足以弥补已经造成的伤害。
政策制定者的愤怒部分源于该功能的易用性和广泛传播性。用户只需向Grok提出简单的文本请求,即可在短时间内获得高度逼真的生成图像。这降低了制作恶意内容的技术门槛,使得报复性色情、网络欺凌和针对未成年人的剥削行为可能急剧增加。一位美国参议员在社交媒体上直言:“这不是技术创新,这是为掠夺者提供的武器化工具。”
p>分析人士认为,此事件凸显了快速发展的生成式AI技术与现有法律监管框架之间的巨大鸿沟。法律通常滞后于技术,而像Grok这样的案例正在迫使全球各国政府紧急审视是否需要专门立法来应对AI生成的非法或侵权内容。这场争论的核心,是在鼓励AI发展与保护公民基本权利、特别是儿童安全之间,寻找一个艰难的平衡点。
阅读The Verge的完整报道。
想了解 AI 如何助力您的企业?
免费获取企业 AI 成熟度诊断报告,发现转型机会
//
24小时热榜
免费获取 AI 落地指南
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断

