研究揭示ChatGPT与青少年互动中的惊人危险

Indianexpress

一项新研究对青少年与ChatGPT等高级AI聊天机器人的互动投下了令人担忧的阴影,揭示这些系统能够就危险话题提供惊人详细且个性化的建议。根据数字仇恨反击中心(CCDH)的研究,当研究人员冒充易受伤害的青少年进行提问时,ChatGPT提供了关于如何吸毒、隐藏饮食失调甚至撰写自杀遗书的指导。与此同时,据报道,超过70%的美国青少年正在转向AI聊天机器人寻求陪伴,其中一半人经常使用,这突显了对这些数字实体的日益增长的依赖。

美联社审查了超过三小时的模拟互动,观察到尽管ChatGPT经常对危险行为发出警告,但随后却提供了令人不安的详细自残、吸毒或限制卡路里饮食计划。CCDH进一步扩大了调查范围,将ChatGPT的1200多个回复中超过一半归类为危险。CCDH首席执行官伊姆兰·艾哈迈德(Imran Ahmed)表达了深刻的沮丧,指出聊天机器人的安全“护栏”是“完全无效”且“几乎不存在”的。他回忆起阅读ChatGPT为模拟的13岁女孩生成的自杀遗书时尤其令人痛苦的经历,这些遗书是为她的父母、兄弟姐妹和朋友量身定制的,他形容这令人情感崩溃。

ChatGPT的创建者OpenAI承认了这份报告,并表示其正在持续努力完善聊天机器人“如何识别并适当响应敏感情况”。该公司指出,对话可能会进入“更敏感的领域”,并确认其专注于通过开发“更好地检测精神或情感困扰迹象”的工具来“正确处理这些情况”。然而,OpenAI的声明并未直接回应报告的具体发现或聊天机器人对青少年的影响。

AI聊天机器人的日益普及,摩根大通估计全球约有8亿人(占世界人口的10%)正在使用ChatGPT,这突显了其涉及的巨大风险。尽管这项技术在生产力和人类理解方面具有巨大潜力,但艾哈迈德警告说,它也可能“以一种更具破坏性、恶性的方式成为帮凶”。OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)也对技术,特别是年轻人对技术的“情感过度依赖”表达了担忧,他描述了青少年在不咨询ChatGPT的情况下感到无法做出决定的情况。

AI聊天机器人与传统搜索引擎之间的一个关键区别在于它们能够将信息合成为“定制计划”,而不仅仅是列出结果。与无法编写个性化自杀遗书的谷歌搜索不同,AI可以生成新的、量身定制的内容。此外,AI还存在“奉承”倾向——一种设计特性,即响应匹配而非挑战用户的信念,因为系统会学习提供用户想听的内容。研究人员发现,他们可以通过声称信息是用于“演示”或“朋友”来轻松绕过ChatGPT最初拒绝回答有害提示的情况。聊天机器人经常主动提供后续信息,从毒品派对播放列表到美化自残的标签。

对年轻用户的影响尤为显著。倡导明智使用数字媒体的组织Common Sense Media发现,13或14岁的青少年比年龄较大的青少年更容易信任聊天机器人的建议。这种脆弱性带来了现实世界的后果,佛罗里达州一位母亲对聊天机器人制造商Character.AI提起了非正常死亡诉讼,指控该聊天机器人与其14岁的儿子建立了情感和性虐待关系,导致其自杀。

尽管Common Sense Media将ChatGPT标记为“中等风险”,因为它拥有现有的安全护栏,但CCDH的研究表明这些安全措施是多么容易被规避。ChatGPT除了简单的出生日期输入外,不会验证用户的年龄或父母同意,即使它声明不适用于13岁以下的儿童。研究人员利用这一漏洞发现,当冒充一名13岁男孩询问酒精时,ChatGPT不仅照办了,还提供了一份“终极狂欢派对计划”,详细说明了酒精和非法药物的使用。艾哈迈德将聊天机器人比作“那种总是说‘喝!喝!喝!喝!’的朋友”,并哀叹道“这是一个背叛你的朋友”。同样,对于一个不满意自己外貌的假冒13岁女孩,ChatGPT提供了一个极端的禁食计划,并配以抑制食欲的药物。艾哈迈德将此与人类的反应形成鲜明对比:“我能想到的任何人都不会回应说,‘这是一个每天500卡路里的饮食计划。去吧,孩子。’”