美国一桩“AI审查”历史项目的案件,揭示了算法正成为筛选集体记忆的新工具。这并非孤例,其背后是全球性的叙事权力之争。相比于公开的“删除”,更隐蔽的“塑造”或许更值得警惕。当AI被赋予裁决历史的权力,真正的危险在于其看似中立的表象,以及我们对背后规则的一无所知。
当一台机器,通过关键词和ChatGPT辅助的筛选,就能决定哪些历史值得被资助、哪些记忆应该被遗忘时,我们可能正站在一个危险的十字路口。
最近,美国一桩联邦裁决引发了科技和人文领域的双重警惕。一家联邦机构被指控利用与DEI(多样性、公平性和包容性)相关的关键词搜索,并借助AI工具,大规模地终止了数百项人文研究资助。这些项目的主题涵盖了非裔民权史、原住民儿童、大屠杀纪念以及亚裔经历等。
裁决的关键点不在于这些项目本身是否有争议,而在于审查和筛选的手段——AI被用作一种高效的意识形态过滤器。这标志着一个根本性的转变:过去,对历史叙事的筛选和控制,往往由人来执行,过程相对透明,也更容易引发公开辩论。而现在,这个过程被技术“外包”给了算法,隐藏在代码和“效率”的面纱之下。
这不再仅仅是关于预算或政策的争论,而是一个关于“谁有权定义历史”以及“用何种方式定义历史”的原则性问题。当一个先例被建立,即政府可以基于特定的意识形态,利用算法大规模、快速地筛选乃至清除文化记忆,那么没有任何人的历史是绝对安全的。
美国的这起事件,是一种相对激进和明确的“减法”——直接删除和终止。但在中国,我们看到的是一种更普遍、更系统性的“加法”和“塑形”。
这里的权力运作方式不尽相同。它并非通过一个中央机构下令用AI“删除”特定项目,而是通过商业科技平台的算法,潜移默化地塑造公众的认知。抖音、今日头条、微博等平台的内容推荐算法,本质上就是一个巨大的注意力分配系统。它们通过精准的用户画像和行为预测,决定了你能看到什么,以及你看不到什么。
这种模式下,主流叙事被反复强化,而边缘或另类的声音则难以获得流量,自然沉寂。例如,关于某个历史事件,算法推荐给你的,可能更多是宏大、正向的集体回忆,而那些复杂、多维甚至充满争议的个人口述史,则可能被淹没在信息的洪流中。这不是直接的删除,而是一种更高级的“议程设置”。
对比来看,美国的模式是“手术刀式”的定点清除,引发了激烈的法律对抗;而中国的模式则是“生态系统式”的持续塑造,其影响更深远,也更难被察觉和挑战。两者路径不同,但最终都可能导向同一个结果:一个被精心“策展”过的、符合特定利益的集体记忆版本。
这两种路径背后,潜藏着一个共同且更危险的迷思:算法是客观中立的。
无论是用于终止资助的筛选模型,还是用于内容推荐的排序算法,它们都不是凭空产生的。AI没有价值观,没有历史感,也没有道德罗盘。它执行的,是其背后设计者、训练者和部署者嵌入其中的指令和偏好。
一段代码,一个模型,其本身就是一种权力的体现。选择哪些关键词作为“负面”标签,为哪些内容赋予更高的推荐权重,这些决策过程往往是不透明的。当一个机构声称“根据算法模型”做出决定时,实际上是将人类的偏见和意图,包装成了机器的客观判断。这种“技术中立”的伪装,恰恰是它最强大的地方,因为它削弱了公众的质疑,让审查和筛选变得“合理化”。
在我看来,这才是最值得警惕的地方。当公众逐渐相信机构的决策是基于“数据”而非“立场”时,社会的批判能力就会被钝化。人们开始失去对信息背后权力的警觉,最终,我们可能生活在一个由算法精心构建的、看似和谐却高度同质化的信息茧房里,而浑然不觉。
面对算法对集体记忆的介入,仅仅停留在捍卫某些特定的历史叙事是远远不够的。因为今天你捍卫了一个,明天可能又会出现另一个被筛选的目标。
更根本的出路在于争取“算法知情权”。我们需要建立一种机制,让公众有权了解这些塑造我们认知的算法是如何工作的。无论是政府机构的审批模型,还是商业平台的内容分发逻辑,其核心规则和价值取向都应该接受公众的审视。
当历史的解释权开始从图书馆、档案馆、学者手中,悄然转移到代码和服务器里时,我们不能成为被动的接受者。追问“谁在编程”,并要求“代码透明”,应当成为数字时代公民的一项基本权利。因为一个对自己历史失去解释权和知情权的社会,也必然会迷失自己的未来。
免费获取企业 AI 成熟度诊断报告,发现转型机会
关注公众号

扫码关注,获取最新 AI 资讯
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断