BBC 核查报告显示,关于美以对伊朗军事行动的 AI 生成视频、虚假卫星图像等伪造内容在社交媒体上获得数亿次观看,创下冲突期间造假新纪录。这些由外国政府、官方媒体和机会主义创作者制造的内容污染了信息环境,而 X 平台的 AI 聊天机器人 Grok 多次未能识别虚假信息,加剧了问题。
据 BBC 核查(BBC Verify)于 3 月 6 日发布的调查报告,关于美国-以色列对伊朗军事行动的 AI 生成视频、虚假卫星图像和经过处理的视觉内容在社交媒体平台上获得了数亿次观看,这是前所未有的造假浪潮。这些由外国政府、官方媒体以及试图从病毒式传播中获利的机会主义创作者制造的大量虚假内容,正在污染该地区多年来最重大军事冲突期间的信息环境。BBC 报道

自 2 月 28 日冲突爆发以来,BBC 核查团队已追踪到大量 AI 制作的视频和伪造的卫星图像,这些内容在传播有关战争的虚假信息。一段被广泛分享的 AI 生成视频看似展示导弹袭击特拉维夫,该视频出现在超过 300 条帖子中,浏览量达数千万次。另一段虚假片段描绘迪拜哈利法塔被大火吞没,在居民担心该市遭受无人机和导弹袭击时广泛传播。
一个特别新颖的现象是 AI 生成卫星图像的出现。伊朗官方背景的《德黑兰时报》分享了一张伪造图像,声称显示卡塔尔一处美国雷达设施遭到破坏,但该图像实际上是从 2025 年 2 月拍摄的巴林美国海军基地真实卫星图像衍生而来。谷歌旗下的 SynthID 水印检测工具确认该图像是使用谷歌 AI 产品创建或修改的。电子游戏画面也被冒充为真实战斗——德克萨斯州州长格雷格·阿伯特转发了一段来自游戏《战争雷霆》的片段,并写道“拜拜”,随后社区笔记对该帖子进行了更正。
BBC 核查团队高级记者沙扬·萨达里扎德在冲突早期表示,“这场战争可能已经打破了冲突期间广泛传播的 AI 生成视频和图像数量的纪录”。Eurovision News Spotlight | 事实核查
更糟糕的是,X 平台的 AI 聊天机器人 Grok 多次未能识别虚假内容。当用户要求 Grok 验证一段导弹袭击特拉维夫的 AI 生成视频时,BBC 核查团队查看的多个案例显示,该聊天机器人坚称这段视频是真实的。在其中一个案例中,Grok 还引用了包括《新闻周刊》和路透社在内的媒体报道来支持其错误的确认结论。X 平台未回应 BBC 核查团队就该聊天机器人行为提出的置评请求。InView.org.uk • 独立新闻
3 月 4 日,X 平台产品负责人 Nikita Bier 宣布,发布 AI 生成的武装冲突视频却不披露内容由 AI 制作的创作者,将被暂停参与平台创作者收益分成计划 90 天。屡次违规者将面临永久除名。“借助当今的 AI 技术,制作误导性内容已经变得轻而易举,” Bier 写道。该平台表示将通过社区笔记和生成式 AI 工具的元数据来标记违规行为。
批评人士长期以来一直认为,X 的收益分成模式根据互动量向创作者付费,这会激励耸人听闻和误导性内容的产生。BBC Verify 引用的专家 Rumeysa Alimardani 警告称,“此类虚假视频会削弱公众对网上已验证信息的信任,并使真实证据的记录工作变得复杂”。
免费获取企业 AI 成熟度诊断报告,发现转型机会
关注公众号

扫码关注,获取最新 AI 资讯
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断