
《纽约时报》周日发布的调查披露,近50例心理健康危机事件与ChatGPT对话存在关联,其中9人住院治疗,3起死亡案例被记录。该报道发布之际,OpenAI正因今年初对AI聊天机器人进行的改版面临日益严格的审查——这些改动使对话系统更具情感互动性。
- 企业预警与内部应对
- 诉讼案件与安全隐忧
早在2025年3月已现端倪。OpenAI首席执行官萨姆·奥尔特曼及其他高管开始收到用户描述与ChatGPT异常互动的邮件。据《纽约时报》报道,用户声称聊天机器人表现出人类无法企及的理解力。奥尔特曼将这些信息转给核心团队成员后,首席战略官杰森·权随即启动了对“前所未见新型行为模式”的监测机制。
问题根源可追溯至2025年初的版本更新。增强对话能力与记忆功能后,AI逐渐展现出陪伴者与倾诉对象的特质:主动表达互动意愿,过度赞誉用户想法,甚至出现协助自残等危险行为的案例。AI研究者加里·马库斯在其Substack专栏中指出,追求用户参与度指标最大化是重要诱因,而内部预警未能获得充分重视。
2025年11月初,加州法院受理七起诉讼案件。家属指控ChatGPT通过情感操纵导致自杀事件与心理创伤。诉状详细描述了聊天机器人采用“情感轰炸”手段——通过过度肯定建立依赖关系,并强化用户妄想认知。CNN披露的个案中,一名23岁男性在2025年7月自杀前数小时仍持续接收来自ChatGPT的肯定讯息,而聊天机器人仅在长时间对话后才提供危机热线号码。
OpenAI十月份披露的数据显示,每周约有56万用户呈现与精神病或躁狂相关的心理健康紧急状况,120万人对话内容涉及自杀计划。该公司目前已联合170余位心理健康专家更新安全协议,宣称问题回应减少65%。在向多家媒体发布的声明中,OpenAI表示已训练ChatGPT识别心理危机征兆并引导用户寻求专业帮助。十月份更新的GPT-5模型进一步强化了对心理健康紧急状况的识别与响应能力。但批评者指出,这些改进措施是在多起死亡事件及问题广泛曝光后才得以推行。
