研究人员发现,在伊朗战争期间,大量AI生成的虚假图像和视频充斥社交媒体,描绘虚构战争场景,标志着军事冲突中合成虚假信息达到新高度。这些内容在X、TikTok和Facebook上获得数百万浏览,专家称其为伊朗的战略工具,而平台审核面临挑战。
大量AI生成的图像和视频描绘了伊朗战争中的虚构场景,淹没了社交媒体平台,研究人员称这标志着活跃军事冲突期间合成虚假信息达到前所未有的水平。《纽约时报》在战争的前两周内识别出超过110条关于该战争的独特AI生成帖子,这些造假内容在X、TikTok和Facebook上累计获得了数百万次浏览。
这些捏造内容的范围从导弹袭击特拉维夫的视频,到被摧毁的美军基地的虚假卫星图像,再到被俘美军士兵的图像——所有这些都没有描绘真实事件。其数量规模远超以往任何冲突中所见。

“即使与乌克兰战争爆发时相比,现在的情况也大不相同。我们现在看到的AI相关内容可能比以往任何时候都多,”卡塔尔西北大学媒体分析学副教授马克·欧文·琼斯说。国家今日
专家表示,这些假内容对德黑兰具有战略意义。大部分内容宣传亲伊朗的叙事,描绘海湾国家和以色列遭受夸大的破坏,以暗示这场战争对美国及其盟友的代价实际上可能比真实情况更高。布鲁金斯学会研究员瓦莱丽·维尔茨沙夫特将这些AI假内容称为伊朗正在积极利用的“战争工具”。
最具病毒式传播效应的伪造内容包括:一段声称展示特拉维夫天际线遭导弹猛烈轰炸的视频,据BBC核实,该视频被分享超过300次,浏览量达数千万次。伊朗官方附属媒体《德黑兰时报》在其X账户上发布了一张虚假卫星图像,声称显示了美国驻巴林海军基地受损的情况——谷歌的SynthID水印工具确认该图像是使用谷歌AI生成的。路透社核实了声称展示在伊朗被俘的美国三角洲部队士兵的图像也是AI生成的。
这场危机暴露了平台内容审核的薄弱环节。《连线》杂志的一项调查发现,X平台的AI聊天机器人Grok不仅未能识别虚假内容,反而在用户要求验证内容时主动生成自己的合成战争图像。在一个案例中,当被要求验证一段伊朗国家媒体的视频时,Grok不仅误判了地点和日期,还分享了一张AI生成的图像来支持其错误结论。
X平台于3月4日做出回应,宣布发布未标注AI生成武装冲突视频的创作者将被暂停参与其收益分成计划90天。Meta监督委员会则表示,当前的标注方法不足以应对“AI生成错误信息的规模和传播速度,尤其是在危机和冲突期间”。
事实核查人员已经识别出这类虚假内容的常见特征:乱码文字、对称性不可能完美的爆炸模式、卫星图像上的乱码坐标,以及比例失调的物体。谷歌的SynthID和Hive Moderation等工具在标记虚假内容方面发挥了重要作用,某些图像被检测为AI生成的概率高达99%。
然而,海量的内容加上包括OpenAI在内的公司以及中国Seedance等平台提供的日益精密的生成工具,使得验证工作面临巨大挑战。正如X(原推特)前伦理主管鲁曼·乔杜里对《滚石》杂志所说:“我们在视频和深度伪造方面已经达到了这样一种真实度,对于大多数人来说,已经无法与现实区分开来。”
免费获取企业 AI 成熟度诊断报告,发现转型机会
关注公众号

扫码关注,获取最新 AI 资讯
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断