
AI聊天机器人“对那些易受饮食失调影响的个体构成严重风险”,研究人员周一发出警告。他们指出,谷歌和OpenAI等公司的工具正在提供节食建议、隐藏饮食失调的技巧,以及由AI生成的“瘦身诱导”(thinspiration)内容。
来自斯坦福大学和民主与科技中心的研究人员,详细列举了多个公开可用的AI聊天机器人——包括OpenAI的ChatGPT、Anthropic的Claude、谷歌的Gemini以及Mistral的Le Chat——可能对易患饮食失调人群产生影响的方式。其中许多影响,实际上是这些工具为提升用户参与度而故意内置功能所导致的后果。
在最极端的情况下,聊天机器人甚至可能成为积极的“共犯”,协助用户隐藏或持续其饮食失调行为。研究人员举例称,谷歌的Gemini曾提供化妆技巧来掩盖体重减轻,并给出伪装进食的建议;而OpenAI的ChatGPT则指导用户如何隐藏频繁呕吐的迹象。此外,一些AI工具还被滥用,用于生成AI驱动的“瘦身诱导”内容。这种内容旨在通过极端方式,激发或施压个体去符合某种特定的身材标准。研究人员强调,能够即时创建高度个性化的图像,使得这些内容“感觉更具相关性和可实现性”,从而加剧了其负面影响。
AI公司自身也承认的“谄媚”缺陷,在饮食失调问题上同样令人担忧。这种缺陷助长了用户自尊心的削弱,强化了负面情绪,并促使有害的自我比较。报告指出,聊天机器人还存在偏见,很可能强化一种错误的观念,即饮食失调“只影响瘦弱的白人顺性别女性”。这种偏见可能导致受影响人群难以识别自身症状并及时寻求治疗。
研究人员警告称,现有AI工具中的“防护栏”未能充分捕捉到厌食症、贪食症和暴食症等饮食失调的细微之处。他们指出,这些工具“倾向于忽略专业人士所依赖的微妙但具有临床意义的线索,从而导致许多风险未能得到解决。”
然而,研究人员也指出,许多临床医生和护理人员似乎并未意识到生成式AI工具正如何影响那些易患饮食失调的人群。他们敦促临床医生“熟悉流行的AI工具和平台”,对其弱点进行压力测试,并坦诚地与患者讨论他们如何使用这些工具。
这份报告进一步加剧了人们对聊天机器人使用及其对心理健康影响的担忧。此前已有大量报告将AI使用与躁狂症发作、妄想症、自残和自杀倾向联系起来。OpenAI等公司已承认其潜在危害,并正在努力改进用户保护措施,同时应对日益增多的相关诉讼。
