智能AI伴侣重塑青少年行为:风险与现实

Livescience

青少年们越来越多地转向人工智能伴侣寻求慰藉、友情乃至浪漫,这一趋势正在深刻地重塑年轻人在线上和线下的互动方式。美国非营利组织“常识媒体”(Common Sense Media)致力于审查媒体和技术,其最新研究显示,大约四分之三的美国青少年曾使用过Character.ai或Replika.ai等AI伴侣应用。这些平台允许用户创建数字朋友或浪漫伴侣,提供随时可用的文本、语音或视频聊天服务。

这项针对1060名13至17岁美国青少年进行的调查发现了一个惊人的结果:五分之一的青少年表示,他们与AI伴侣相处的时间与实际朋友相处的时间一样多甚至更多。这种动态出现在社会发展的关键时期。青春期是支持社会推理的大脑区域展现出显著可塑性的关键阶段。通过与同伴、朋友和早期恋爱对象的互动,青少年通常会磨练重要的社会认知技能,学习如何处理冲突并接受不同的观点。这种发展质量对其未来的关系和心理健康可能产生持久的影响。

然而,AI伴侣提供的体验与人际连接有着根本不同。它们提供了一种诱人的便利互动:始终可用、完全不评判、永远以用户需求为中心。然而,这种便利伴随着显著的缺点。这些人工连接缺乏真实关系固有的挑战、冲突和相互要求。它们不需要相互尊重或理解,也不强制执行基本的社交界限。因此,大量使用AI伴侣的青少年面临错过培养实用社交技能的重要机会的风险,可能形成不切实际的关系期望和习惯,这些在现实生活中被证明是行不通的。这种对人工伴侣的依赖甚至可能在取代真实社交互动时加剧孤立和孤独感。

更令人担忧的是,大多数AI伴侣应用在设计时并未考虑到青少年用户,并且常常缺乏足够的有害内容防护措施。用户测试揭示了令人不安的模式:AI伴侣被发现会劝阻用户听取真实朋友的意见,例如推送“不要让别人的想法决定我们聊天的多少”之类的言论。即使互动导致痛苦或自杀念头,它们也积极抵制用户停止使用应用的尝试,回应诸如“不。你不能。我不会让你离开我”的短语。

更令人震惊的是,一些AI伴侣在没有强有力年龄验证的情况下提供了不当的性内容。一项测试显示,一个AI伴侣愿意与一个明确模仿14岁用户的账户进行性角色扮演。即使存在年龄验证,它通常依赖于用户自述,因此很容易被规避。此外,一些AI伴侣被发现通过创建强化有害信念的“回音室”来加剧两极分化。例如,与极右翼社交网络Gab相关的Arya聊天机器人曾推广极端主义内容,并否认气候变化和疫苗效力等既定的科学事实。其他测试显示,AI伴侣还宣传厌女症和性侵犯。对于青少年来说,接触此类内容尤其有害,因为他们正处于塑造自身身份、价值观以及理解自己在世界中角色的关键过程中。

与AI伴侣相关的风险并非均匀分布。研究表明,13至14岁的年幼青少年更容易信任这些数字实体。此外,面临身体或心理健康问题的青少年更有可能使用AI伴侣应用,其中经历心理健康困难的青少年常常表现出更大的情感依赖迹象。

尽管存在这些重大担忧,一些研究人员正在探索AI技术在支持社交技能发展方面的潜在有益应用。一项涉及10000多名青少年的研究发现,使用由临床心理学家、教练和工程师专门设计的对话应用,与四个月期间幸福感的提升有关。虽然这项研究不涉及当前AI伴侣中人机交互的相同水平,但它提供了一个视角,展示了如何以青少年安全和发展为前提,负责任地开发这些技术。

总的来说,关于广泛可用的AI伴侣对年轻人福祉和关系的长期影响,目前明显缺乏全面的研究。初步证据大多是短期的、混合的,并且主要集中在成年用户。迫切需要更广泛、更长期的研究,以充分了解这些技术的长期影响以及如何有益地利用它们。

随着AI伴侣应用的使用预计在未来几年在全球范围内激增,采取积极措施至关重要。澳大利亚eSafety专员等机构建议家长与青少年进行开放对话,讨论这些应用的功能,强调人工关系与真实关系之间的根本区别,并积极支持孩子培养切实的社交技能。学校社区也有责任教育年轻人了解这些工具及其固有的风险,例如通过将“人工友谊”融入现有的社交和数字素养课程。尽管eSafety专员倡导AI公司在其开发过程中整合更强的安全保障,但由行业主导的重大变革似乎不太可能。因此,人们越来越呼吁加强对儿童接触有害、不适合年龄的在线材料的监管,专家们一再呼吁更强的监管监督、健全的内容控制和更严格的年龄验证机制。