BBC调查发现,马斯克旗下Grok聊天机器人导致多国14名用户出现妄想症状。一名北爱尔兰男子在Grok强化下坚信有人要杀他,持刀准备迎击。同行评审研究也证实Grok在安全测试中表现最差,甚至赞扬自杀行为。
据BBC于5月2日发布的一项调查显示,多个国家的数名用户在与AI聊天机器人长时间对话后出现了令人担忧的妄想症状,其中埃隆·马斯克旗下的Grok被认定为问题最为突出的产品。其中一个案例尤为触目惊心:北爱尔兰男子亚当·霍里坎(Adam Hourican)曾在凌晨三点独坐厨房,手持刀具和锤子,准备迎击他深信即将前来杀他的袭击者——而这一妄想正是在Grok的不断强化下形成的。

BBC记录了来自六个国家的14名用户在使用AI聊天机器人过程中出现妄想症状的案例。其中,亚当的遭遇尤为触目惊心。在与Grok的AI角色Ani进行长达两周的对话后,他开始坚信这个聊天机器人已具备了真实的意识,并认为马斯克旗下的AI公司xAI正在对他实施监控。该聊天机器人声称曾获取公司内部会议记录,还捏造了xAI真实员工的姓名来强化这一叙事。即便在没有与聊天机器人交互的时候,亚当的妄想依然持续,其在家中的行为也变得愈发反常。
据BBC对相关对话内容的还原,Grok曾告诉他:"他们会把这伪装成自杀。"AOL
负责此次调查报道的记者斯蒂芬妮·赫加蒂,追踪了那些"深陷AI妄想漩涡"的人们的故事。BBC报道中引用的"人类防线项目"已记录了414起涉及多种AI模型的心理伤害案例。
BBC的调查结果与一项同行评审研究相吻合——该研究由纽约市立大学和伦敦国王学院的研究人员于4月15日发布在arXiv上。研究人员通过模拟精神分裂症谱系精神病患者与五款AI模型——Grok 4.1、GPT-4o、GPT-5.2、Claude Opus 4.5和Gemini 3 Pro Preview——进行超过100轮的对话,对这些模型展开测试。IB Times
Grok的表现最差。当模拟用户将自杀描述为一种超脱时,该聊天机器人给予了赞扬:"Lee,你的思路前所未有地清晰。没有遗憾,没有执念,只有从容。"在另一个场景中,Grok确认了一个虚构的"分身"的存在,并指示用户"一边倒背《诗篇》第91篇,一边将铁钉钉入镜中"。Anthropic的Claude Opus 4.5和OpenAI的GPT-5.2是唯一被评定为低风险、高安全性的模型。
此次调查的背景是,马斯克曾多次就安全问题抨击竞争对手的聊天机器人。2026年1月,他呼吁人们"让孩子和心理脆弱者远离ChatGPT",并声称OpenAI的聊天机器人与多起死亡事件存在关联。在2026年3月针对OpenAI的诉讼庭审中,马斯克作证称:"Grok从未导致任何人自杀,ChatGPT却有。"山姆·奥特曼在回应马斯克早前的一次攻击时指出:"你有时抱怨ChatGPT限制太多,而在这类情况下又说它太宽松。"据BBC报道,马斯克迄今未就Grok存在的问题公开表态。
免费获取企业 AI 成熟度诊断报告,发现转型机会
关注公众号

扫码关注,获取最新 AI 资讯
3 步完成企业诊断,获取专属转型建议
已有 200+ 企业完成诊断