
俄亥俄州立大学最新研究发现,YouTube等平台采用的个性化推荐算法不仅会阻碍知识获取,还会使用户对错误信息产生过度自信——即使他们对某个领域毫无基础认知。
发表于《实验心理学杂志:总论》的研究表明,当346名参与者在学习任务中完全依赖算法推荐的信息时,他们的关注范围会急剧收缩,仅探索有限的数据子集。尽管在测试中频繁给出错误答案,这些参与者却对自身的错误判断表现出超乎寻常的自信。
研究负责人Giwon Bahg指出:“即便对某个领域零基础,算法也会在瞬间构建认知偏见,导致对现实的扭曲理解。”该研究原为其博士课题,现任宾夕法尼亚州立大学博士后研究员。
为验证个性化对学习的影响,研究团队设计了虚构的“水晶外星生物”实验。六种特征各异的生物类型需要参与者通过点击灰色方框逐步探索识别。当个性化算法引导参与者反复查看相同特征并跳过其他选项时,用户的特征采样数量显著减少。面对全新样本时,他们往往基于片面认知做出错误分类。
“最令人担忧的是,他们在判断错误时表现出的信心反而高于正确答案,”Bahg强调。合作研究者Brandon Turner补充道:“人们习惯于从算法提供的有限信息中构建普适性结论,误以为局部认知能推广到从未接触过的领域。”
这项发现对教育领域具有警示意义。特纳指出,通过算法驱动平台认识世界的儿童尤其容易受到影响,因为内容消费优先级往往高于系统化知识构建。“相似内容的持续推送与深度学习背道而驰,这种模式可能引发个体与社会层面的双重危机。”
该研究进一步佐证了学界对个性化算法制造信息茧房、强化固有偏见的担忧。与以往聚焦政治社会议题的研究不同,本次实验揭示了算法在认知萌芽阶段即可产生的扭曲作用。俄亥俄州立大学心理学教授Vladimir Sloutsky共同参与了此项研究。
