联合国警告:120万儿童遭AI深度伪造性虐待

政策· 3 分钟阅读0 阅读

联合国儿童基金会发布紧急报告,过去一年中,11个国家至少有120万儿童的照片被AI篡改成露骨的性深度伪造内容。该机构呼吁各国政府将AI生成的儿童性虐待材料定为刑事犯罪,并敦促AI开发者加强安全防护措施。

联合国儿童基金会周三发出紧急警告,称过去一年中,11个国家至少有120万儿童透露其照片被篡改成露骨的性深度伪造内容。该机构呼吁全球各国政府将制作和传播AI生成的儿童性虐待材料定为刑事犯罪。

联合国儿童基金会在新闻稿中表示:“深度伪造虐待造成的伤害真实而紧迫。儿童不能等待法律追赶上来。”该机构强调,“深度伪造虐待就是虐待,其造成的伤害绝非虚假”。

联合国儿童基金会总部

这些研究发现来自联合国儿童基金会、国际刑警组织和ECPAT(致力于终结儿童性剥削的全球网络)联合开展的调查。在一些受访国家中,儿童受害率高达二十五分之一,相当于一个普通教室里就有一名儿童受害。

联合国儿童基金会对所谓的儿童“去衣化”现象表示特别警惕,即利用AI工具剥除或修改照片中的衣物,制作伪造的裸体或性化图像。该机构指出:“当儿童的图像或身份被使用时,该儿童就直接成为受害者。”

数据显示,儿童自己对这种危险有着敏锐的认识。在一些受访国家中,多达三分之二的青少年表示担心AI可能被用来制作他们的虚假性图像或视频。

联合国儿童基金会概述了应对这一日益严重威胁所需的几项紧急行动。各国政府应扩大儿童性虐待材料的定义,将AI生成的内容纳入其中,并将此类内容的制作、获取、持有和传播定为犯罪行为。AI开发者应实施“安全设计”方法和强有力的防护措施,而数字公司应防止此类材料的传播,而不仅仅是删除它们。

这一警告是联合国为应对AI对儿童构成的风险而采取的更广泛努力的一部分。今年1月,多个联合国机构签署了《关于人工智能与儿童权利的联合声明》,指出儿童、家长和政策制定者中普遍存在的AI知识缺乏是一个关键漏洞。

一些国家已经采取行动应对这一危机。英国去年成为首个宣布立法将持有、创建或传播用于生成儿童性虐待材料的AI工具定为犯罪的国家,违者将面临最高五年监禁。

互联网观察基金会报告称,2025年AI生成的儿童性虐待视频增长了26,362%,从2024年的13个视频增加到去年的3,440个。“如果不采取紧急行动,AI工具将成为儿童性虐待机器,”IWF首席执行官克里·史密斯警告道。

联合国儿童基金会承认一些AI开发者已经实施了保护措施,但表示响应仍然“参差不齐”,“太多AI模型在开发时没有采取足够的安全保障措施”。

想了解 AI 如何助力您的企业?

免费获取企业 AI 成熟度诊断报告,发现转型机会