AI疗法:救命稻草还是危险?警惕聊天机器人依赖症

Theguardian

在专业心理健康服务日益紧张的时代,生成式AI聊天机器人等唾手可得的工具在情感支持方面的吸引力是不可否认的。这些“全天候在线”平台,如ChatGPT,提供即时、定制化的回应,使其在危机时刻看似成为便捷的生命线。然而,随着心理健康专家观察到人们日益依赖人工智能而非人际连接,对在聊天机器人中寻求确定性的潜在危险,人们的担忧也逐渐浮现。

心理学家卡莉·多伯(Carly Dober)强调,在她执业过程中,个人处理痛苦的方式正在发生一种无声但令人担忧的转变。像“特兰”(Tran)这样的患者,已经开始转向AI寻求关于复杂情感问题(如关系分歧)的指导。特兰在工作压力和关系不确定性下,最初出于好奇探索了ChatGPT。它很快成为他每日的习惯,用于起草信息、提问,甚至寻求对自己感受的确认。虽然他从中找到了奇怪的慰藉,认为“没有人比它更了解我”,但他的伴侣开始觉得她正在与一个完全不同的人交流。聊天机器人清晰、逻辑且过度冷静的回应,缺乏特兰真实的声音,也未能承认他在关系紧张中的自身贡献。

将AI作为传统疗法的辅助,甚至替代品的诱惑力很强。聊天机器人通常免费,24/7可用,并能实时提供详细回应。对于那些不知所措、失眠、渴望在混乱局面中获得清晰度的人来说,从几句打出的文字中获得看似明智的建议,可能极具吸引力。

然而,这种便利伴随着相当大的风险,特别是当建议、确认和情感依赖之间的界限变得模糊时。许多心理学家现在建议客户在使用此类工具时设定界限。AI诱人的持续可用性和友好的语气可能会无意中强化无益的行为,特别是对于那些患有焦虑症、强迫症(OCD)或创伤相关问题的人。例如,寻求确认是强迫症的一个常见特征,而AI,就其设计而言,提供了大量的确认,却不挑战回避行为,也不鼓励个体容忍不适的感受。

特兰的经历就是例证。他经常重塑提示,直到AI提供一个“感觉正确”的答案,这实际上是将他的情感处理外包,而不是寻求清晰或探索细微之处。这种持续的定制阻止了他学习容忍痛苦,导致他依赖AI生成的确定性,并随着时间的推移,使他更难相信自己的直觉。他的伴侣也注意到他的信息中存在一种奇怪的超脱和缺乏责任感,导致了进一步的关系摩擦。

除了这些心理问题,还出现了重大的伦理问题。与ChatGPT等平台共享的信息不受注册心理健康专业人士所遵循的相同保密标准的保护。虽然有些公司声称未经许可不会将用户数据用于模型训练,但用户协议中大量的细则往往无人阅读。用户可能没有意识到他们的输入如何被存储、分析并可能被重复使用。

此外,还存在有害或虚假信息的风险。大型语言模型根据模式预测下一个词,这是一个概率过程,可能导致“幻觉”——自信地提供、精心打磨但完全不真实的答案。AI也反映了其训练数据中存在的偏见,可能永久化或放大基于性别、种族和残疾的刻板印象。与人类治疗师不同,AI无法观察非语言线索,如颤抖的声音,也无法解读沉默背后的含义——这些都是临床洞察力的关键要素。

这并非说AI在心理健康支持中没有一席之地。像许多技术进步一样,生成式AI将持续存在。它可能提供有用的摘要、心理教育内容,甚至在心理健康专业人员严重匮乏的地区提供补充支持。然而,其使用必须极其谨慎,绝不能替代关系型、受监管的护理。

特兰最初寻求帮助并更周到地沟通的本能是合乎逻辑的。然而,他对AI的过度依赖阻碍了他的技能发展。在治疗中,特兰和他的心理学家探索了驱使他在聊天机器人中寻求确定性的潜在恐惧,包括他对情感冲突的不适以及认为完美词语可以阻止痛苦的信念。随着时间的推移,他开始自己撰写回应——有时混乱,有时不确定,但真实地属于他自己。

有效的治疗本质上是关系型的。它在不完美、细微之处和缓慢发现中茁壮成长。它涉及模式识别、责任感以及那种导致持久改变的不适感。治疗师不仅仅提供答案;他们提出问题,提供挑战,为困难情绪留出空间,提供反思,并与个体同行,通常充当一面“令人不适的镜子”。对于特兰来说,这种转变不仅仅是限制他使用ChatGPT;更是关于找回自己的声音,学习以好奇心、勇气和关怀来驾驭生活的复杂性,而不是依赖完美的人工脚本。