AI承诺为我们找到“最优解”,但这“最优”的标准由谁定义?从抖音的信息茧房到大厂的简历筛选,AI并非中立的决策者,而是我们现有欲望与偏见的放大器。当算法的效率取代了人类的深思熟虑,我们得到的可能不是更优的世界,而是一个精心打造的牢笼。真正的风险不是技术本身,而是我们放弃判断的惰性。
我们正在习惯于向AI寻求答案。哪个餐馆评分最高?哪条路线最不堵车?哪位候选人最匹配岗位?AI似乎总能基于海量数据,给出一个理性的、高效的“最优解”。
这背后隐藏着一个危险的假设:我们相信存在一个客观的、可以通过计算得出的“好”的标准。然而,这个标准本身,恰恰是最需要被审视的。AI并不能创造价值,它只能执行被预设的价值。当我们将“价值判断”这个复杂的人类任务打包,喂给一个优化系统时,我们实际上是在请求它将我们已有的、甚至是我们自己都未曾察觉的偏好,推向极致。
这套逻辑的危险之处在于,它用效率和数据的光环,掩盖了价值选择的主观性。一个看似中立的系统,正在悄无声息地替我们做出判断,而我们却误以为自己得到了科学的指引。
当一个价值被量化为指标(KPI),它就获得了某种客观的、不容置疑的光环。算法的天职,就是不惜一切代价优化这个指标。
以抖音、快手为代表的短视频平台为例,它们的核心指标是“用户停留时长”。为了最大化这个指标,算法会精准地推送那些最能刺激你感官、激发你情绪的内容。一个用户可能因为好奇点开了一个猎奇视频,算法便会认定他对此类内容感兴趣,进而推送更多同质化的内容。系统完美地完成了它的KPI,但用户却被困在了信息茧房里,视野日益狭隘,情绪更易被操纵。算法没有做错任何事,它只是忠实地执行了“追求用户时长”这个被预设的“善”。
在中国的大型科技公司,AI筛选简历早已是常态。这里的“最优解”被定义为:毕业于名校(如985/211)、曾在知名企业工作、简历中包含特定关键词。AI系统高效地从成千上万的简历中筛出符合条件的候选人。这套系统看似公平且高效,但它实际上做的是“模式匹配”,而非“价值发现”。它无法识别一个来自普通院校但极具潜力的年轻人,也无法理解跨界人才的独特价值。结果是,它不断地强化现有的人才偏见,让大厂的人才库越来越同质化,社会阶层流动的通道也因此变得更加狭窄。

更进一步的例子是信用评分系统。当一个人的信用被简化为单一的分数,这个分数就成了他的数字化身。系统根据消费行为、履约记录等数据来定义一个“好公民”的画像。那些行为模式符合模型预期的用户会得到高分,享受各种便利;而那些生活方式不那么“主流”的用户,则可能在贷款、就业等方面处处受限。系统再次完美地执行了任务,但它也将复杂的人性与社会角色,压缩成了一个冷冰冰的数字,并以此进行奖惩。
工具的意义在于被“使用”,而终极价值在于被“享用”。我们使用锤子是为了造出一把可以安坐的椅子。锤子是手段,椅子才是目的。危险在于,当手段本身变得过于强大和便捷时,我们可能会混淆它与目的。
AI的演进正在加速这一进程。最初,AI被设计为人类决策的辅助工具,它提供信息、分析数据,帮助我们看得更清、想得更远。但现在,它的角色正在悄然转变。AI的输出不再仅仅是“参考建议”,而越来越像“最终结论”。
当招聘经理面对AI筛选出的5份“最优”简历时,他有多大意愿和精力去审视那些被AI过滤掉的995份简历?当内容平台的运营者看到AI推荐的爆款选题时,他有多大动力去尝试那些不符合算法偏好的冷门原创?
久而久之,工具不再是帮助我们观察世界的窗户,而是定义了世界边界的画框。我们思考的起点,变成了算法筛选后的结果。人类的判断力没有被赋能,反而被“外包”了。更危险的是,这种外包是隐性的,我们甚至会为自己“更高效”的决策而沾沾自喜。
这种对“最优解”的盲目崇拜,背后是一种智力上的懒惰和责任上的逃避。将复杂的决策交给一个“黑箱”,意味着我们不必再为选择的后果承担全部的道德压力。如果算法出错了,那是“算法的问题”,是工程师的、是数据的、是公司的,唯独不是我们自己的。
在中国这个极度追求效率的商业环境中,这种“效率陷阱”尤为致命。当“快”压倒一切,“增长”成为唯一信仰时,任何能够提升效率的工具都会被奉为圭臬。AI,正是这顶皇冠上最耀眼的明珠。然而,这种由AI驱动的极致效率,正在侵蚀那些无法被量化的价值:比如深思熟虑的决策过程、比如对少数派的关怀、比如 serendipity(意外发现的惊喜)。
我们得到的,是一个越来越高效,但也可能越来越无趣、越来越固化的世界。一个由算法精心维护的、看似完美的秩序,可能最终成为一个我们无法逃离的牢笼。
真正的挑战并非技术本身,而是我们如何与之共处。我们需要重建一种“机构性谦逊”:承认任何系统都无法定义终极的“善”,承认效率不等于正确。AI的输出应该是审议的开始,而不是终点。
我们应该追问的,不是“AI给出的答案是什么?”,而是“AI是基于何种价值观给出的这个答案?它优化了什么?又牺牲了什么?”。将隐藏在代码背后的价值选择,重新拉回到公开的、可辩论的场域,是我们在智能时代守住人类主体性的唯一方式。
否则,当我们将判断力完全托付给机器时,我们也就交出了定义自己未来的权力。
免费获取企业 AI 成熟度诊断报告,发现转型机会
关注公众号

扫码关注,获取最新 AI 资讯
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断