人工智能在心理健康领域:特雷弗项目如何利用AI帮助LGBTQ青少年
在特雷弗项目,志愿者辅导员需要为与可能存在自杀倾向的LGBTQ青少年进行第一次对话做好准备。为此,他们会进行练习。其中一种练习方式是与虚拟人物“莱利”进行对话,莱利是一个来自北卡罗来纳州的16岁女孩,她感到沮丧和抑郁。通过与扮演莱利的团队成员进行对话,学员可以深入了解情况:他们可以发现莱利对向家人出柜感到焦虑,最近告诉朋友但结果不佳,并且之前有过自杀念头,即使现在没有。
然而,现在莱利不再由特雷弗项目的员工扮演,而是由人工智能驱动。
与最初的虚拟人物一样,这个由人工智能驱动的莱利版本——经过数千次辅导员与组织员工之间角色扮演的对话记录训练——仍然需要一些引导才能打开心扉,展现出一种可以考验学员所学知识的场景,帮助他们了解如何最好地帮助LGBTQ青少年。
辅导员不应该强迫莱利出柜。相反,目标是认可莱利的情绪,并在需要时帮助她制定安全计划。
危机热线和聊天服务承诺:联系我们,我们会把你与可以提供帮助的真人联系起来。但即使是最成功的服务,需求也可能超过其能力。特雷弗项目认为,美国每年有180万LGBTQ青少年认真考虑自杀。现有的600名聊天服务辅导员无法满足这一需求。因此,该组织——与越来越多的心理健康组织一样——转向人工智能驱动的工具来帮助满足需求。这是一个很有意义的发展,但也引发了人们对当前人工智能技术在涉及脆弱人群生命安全的情况下能否有效发挥作用的质疑。
承担风险并进行评估
特雷弗项目认为自己理解这种平衡,并强调莱利不会做的事情。
“我们没有,也不打算设计一个能够取代辅导员或直接与可能处于危机中的人进行交流的人工智能系统,”该组织人工智能和工程主管丹·菲希特说。这种人际联系对所有心理健康服务都很重要,但对于特雷弗项目服务的人群来说可能尤为重要。根据该组织2019年的研究,至少有一位接纳他们的成年人在身边的LGBTQ青少年,在过去一年中报告自杀企图的可能性降低了40%。
人工智能驱动的训练角色扮演,被称为危机联络模拟器,得到了谷歌的资金和工程支持,是该组织开发的第二个此类项目:它还使用机器学习算法来帮助确定谁面临着最大的危险。(它尝试了其他几种方法,包括许多不使用人工智能的方法,但该算法只是对谁最需要帮助做出了最准确的预测。)
人工智能驱动的风险评估对自杀预防服务来说并不新鲜:正如《纽约时报》去年年底报道的那样,美国退伍军人事务部也使用机器学习来识别其临床实践中存在风险的退伍军人。
人们对以这种方式使用人工智能的有效性、准确性和风险存在不同的看法。佛罗里达州立大学研究自杀行为的心理学教授托马斯·乔伊纳认为,在特定环境中,人工智能在评估人们的自杀风险方面可能比人类更准确。在现实世界中,由于变量更多,人工智能的表现似乎与人类相当。然而,它可以更快地评估更多人。
因此,最好将其用于帮助人类辅导员,而不是取代他们。特雷弗项目仍然依靠人类对使用其服务的年轻人进行完整的风险评估。在辅导员完成与莱利的角色扮演后,这些对话记录会由人类进行审查。
系统如何运作
危机联络模拟器的开发是因为角色扮演会占用大量员工时间,并且仅限于正常工作时间,尽管大多数辅导员计划在晚上和周末值班。但即使目标是更快地培训更多辅导员,并更好地适应志愿者的工作时间安排,效率也不是唯一的目标。开发人员仍然希望角色扮演感觉自然,并且聊天机器人能够灵活地适应志愿者的错误。自然语言处理算法最近在模仿人类对话方面取得了很大进步,似乎很适合应对这一挑战。在测试了几个选项后,特雷弗项目最终选择了OpenAI的GPT-2算法。
聊天机器人使用GPT-2作为其基本对话能力。该模型经过4500万个网页的训练,这使它学会了英语的基本结构和语法。特雷弗项目随后用所有之前莱利角色扮演对话的记录对其进行了进一步训练,这为聊天机器人提供了模仿虚拟人物所需的材料。
在整个开发过程中,团队对聊天机器人的表现感到惊讶。没有数据库存储莱利个人资料的详细信息,但聊天机器人始终保持一致,因为每个对话记录都反映了相同的故事情节。
但使用人工智能也存在权衡,尤其是在涉及脆弱群体的敏感环境中。GPT-2和其他类似的自然语言算法,已知会嵌入深刻的种族主义、性别歧视和同性恋恐惧症思想。不止一个聊天机器人因此而走上了歧途,最近的一个是韩国聊天机器人李露达,它扮演的是一个20岁的大学生。在迅速走红并与越来越多的用户互动后,它开始使用贬义词来描述酷儿和残疾人社区。
特雷弗项目意识到了这一点,并设计了方法来限制潜在的麻烦。虽然李露达旨在与用户就任何话题进行对话,但莱利的关注范围非常狭窄。志愿者不会偏离它所接受训练的对话范围,这最大限度地减少了出现不可预测行为的可能性。
这也使对聊天机器人进行全面测试变得更容易,特雷弗项目表示正在进行测试。“这些高度专业化、定义明确且设计包容性的用例,风险并不高,”DeepMind研究员内纳德·托马塞夫说。
人与人
这不是心理健康领域第一次尝试利用人工智能的潜力,在不伤害其旨在帮助的人群的情况下提供包容性和道德的帮助。研究人员已经开发出有希望的方法,可以从视觉和听觉信号的组合中检测抑郁症。治疗“机器人”,虽然不等于人类专业人士,但被宣传为那些无法获得治疗师或不愿向人倾诉的人的替代方案。
这些发展以及其他类似的发展,都需要思考人工智能工具在治疗脆弱人群时应该拥有多少自主权。而共识似乎是,目前这项技术并不适合取代人类的帮助。
然而,心理学教授乔伊纳表示,这种情况可能会随着时间的推移而改变。虽然目前用人工智能复制品取代人类辅导员是一个糟糕的主意,但“这并不意味着这是一个永久性的限制,”他说。人们已经与人工智能服务建立了“人工友谊和关系”。只要人们没有被欺骗,以为他们在与人工智能交谈时是在与人类进行讨论,他说,这在未来可能成为一种可能性。
与此同时,莱利永远不会面对真正给特雷弗项目发短信的青少年:它只会作为志愿者的培训工具。“我们辅导员与联系我们的人之间的人与人之间的联系,是我们所做一切的根本,”该组织数据和人工智能产品主管肯德拉·冈特说。“我认为这让我们真正独一无二,也是我们任何人都不会想要取代或改变的东西。”
更正:我们修改了一句话,该句话说特雷弗项目为其聊天机器人尝试了两种算法。它尝试了多种算法。