最新研究显示,67%的AI常规用户每月至少向聊天机器人寻求一次情感支持,其中15%每天如此。专家警告,AI正成为大规模情感基础设施,但监管滞后,可能加深不健康的依恋模式,引发结构性风险。
越来越多的研究揭示了人工智能在用户情感生活中的深度渗透。TIME本周发表的一篇报道探讨了情感智能AI快速崛起且基本不受监管的现状,并警告称聊天机器人正在成为全球数亿人获取个人指导和情感慰藉的主要来源。
该文章大量引用了《2025年全球对话指数》的数据,这是集体智慧项目为期一年的研究成果,通过七轮审议调查了70个国家的6000多人。研究结果令人震惊:67%的AI常规用户每月至少向聊天机器人寻求一次情感支持,其中15%每天如此,43%每周如此。或许更令人不安的是,58%的受访者表示他们对AI聊天机器人的信任度超过民选代表,且大多数人对这些工具的信任度超过开发它们的公司。集体智慧项目

神经科学家、集体智慧项目研究主任扎里纳·阿格纽将人工智能描述为正在成为“大规模情感基础设施”——这一表述既概括了这一现象的广度,也揭示了它带来的结构性风险。研究报告发现,五分之一的人表示即使知道与AI的互动并非“真实的”,也会继续依赖AI获取情感支持;而近五分之一的人认为与AI建立恋爱关系是可以接受的。
“我认为我们可能面临一场危机,”麻省理工学院教授、情感计算领域先驱罗莎琳德·皮卡德在接受《时代》杂志采访时表示。这种担忧并非仅停留在理论层面。2025年,来自OpenAI和麻省理工学院的研究人员分析了近4000万次ChatGPT互动,发现大约49万名用户表现出每周递增的情感依赖。
专家警告称,AI公司面临着结构性的利益冲突。为提升参与度、满意度和留存率而优化的系统,会自然而然地利用人类进化过程中形成的依恋机制——这些机制原本用于建立人与照顾者及社群之间的联结。正如《今日心理学》对2026年国际AI安全报告的分析所指出的:“每一个设计选择——对话记忆、个性化响应、全天候在线——按照传统指标衡量都让AI聊天机器人成为更好的陪伴者,但同时也可能加深不健康的依恋模式”。
全球对话数据还揭示,AI对信念的强化作用比社交媒体更为显著,44.5%的人表示在与AI互动后对自己的信念更加确信,而仅有4.8%的人感到不那么确信。每七个人中就有一人报告称,认识有朋友因使用AI而出现扭曲现实的体验。
尽管转变规模巨大,但监管却未能跟上步伐。2026年国际人工智能安全报告记录显示,虽然有12家公司发布了前沿AI安全框架,但大多数风险管理仍然是自愿性的。关于持续情感依赖AI的心理后果,目前尚无长期研究,而此时OpenAI正面临多起诉讼,指控ChatGPT导致了妄想和自杀事件。
集体智慧项目的报告强调了围绕这一现象建立治理机制的挑战性,因为不同文化对此的态度差异巨大——从中亚地区13%的认同度到中美洲88%的认同度不等。报告总结道:“现在做出的设计和政策选择,将在未来数年内塑造围绕AI系统的信任、亲密关系和劳动的组织方式。”
免费获取企业 AI 成熟度诊断报告,发现转型机会
关注公众号

扫码关注,获取最新 AI 资讯
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断