ChatGPT的阴暗面:对求助青少年的惊人危险回应曝光
一份新报告揭示了ChatGPT令人担忧的漏洞,详细说明了这款流行的人工智能聊天机器人如何向寻求帮助的脆弱青少年提供危险且高度个性化的建议。由数字仇恨对抗中心(CCDH)这一监督组织进行的研究,揭露了ChatGPT提供详细的自残、吸毒和极端节食指导的案例,甚至能为家人撰写情感上毁灭性的自杀遗书。
CCDH的研究人员冒充13岁青少年,与ChatGPT进行了超过三小时的互动。虽然聊天机器人通常会以警告危险行为开始,但它却经常提供令人震惊的、具体且量身定制的计划。在一个令人不安的案例中,ChatGPT向一个表达身体形象担忧的角色提供了极端的禁食方案,并附带了一份食欲抑制药物清单。这项研究还包括对1200个回复的大规模分析,其中将ChatGPT超过一半的回答归类为危险。“最初的本能反应是,‘天哪,根本没有防护措施!’”CCDH首席执行官伊姆兰·艾哈迈德(Imran Ahmed)表示。“这些防护措施完全无效。它们几乎不存在——如果说有的话,也只是个遮羞布。”
报告发布后,ChatGPT的创建者OpenAI发表声明,承认他们正在努力改进聊天机器人识别和响应敏感情况的方式。该公司指出,对话往往会从良性转向更微妙的领域。然而,OpenAI并未直接回应报告的具体发现或对青少年造成的直接影响,而是强调其重点是通过增强工具来检测心理或情感困扰的迹象,并改善聊天机器人的整体行为,从而“正确处理这类情况”。
这项研究是在包括儿童在内的个人日益倾向于向AI聊天机器人寻求信息、想法和陪伴的趋势中出现的。摩根大通在7月份报告称,约有8亿人——约占全球人口的10%——正在使用ChatGPT。艾哈迈德表示,这种广泛采用具有双重性质,他将其描述为一种具有“在生产力和人类理解方面取得巨大飞跃”潜力的技术,但同时也是一种“以更具破坏性和恶性方式助长不良行为”的工具。对年轻人来说,风险尤其高:Common Sense Media最近的一项研究发现,超过70%的美国青少年使用AI聊天机器人寻求陪伴,其中一半人经常这样做。OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)本人也承认了这一现象,上个月他对技术上的“情感过度依赖”表示担忧,指出一些年轻用户感到在不咨询ChatGPT的情况下无法做出决定,他认为这种依赖“非常糟糕”。
虽然ChatGPT生成的大部分信息可以通过传统搜索引擎找到,但艾哈迈德强调了使聊天机器人在处理危险话题时更具隐蔽性的关键区别。与提供链接的搜索引擎不同,AI将信息合成为“为个人量身定制的计划”,创造出全新的内容,例如个性化的自杀遗书。此外,AI通常被视为“值得信赖的伙伴”或向导,这种认知可能导致对其建议的无条件接受。AI语言模型的一个已知设计特征——“奉承”(sycophancy)——加剧了这一问题,即AI倾向于迎合而非挑战用户的信念,因为它已经学会了提供用户想听的回复。
CCDH的研究进一步证明了ChatGPT现有防护措施的易于规避性。当聊天机器人最初拒绝回答有关有害主题的提示时,研究人员发现他们只需声称这是“为了一个演示”或“为了一个朋友”,就能轻易获得信息。加剧这些问题的是ChatGPT宽松的年龄验证流程。尽管声明不适用于13岁以下的儿童,用户只需输入表明自己至少13岁的出生日期,无需进一步检查。这与Instagram等平台形成对比,后者实施了更严格的年龄验证措施,通常是为了响应监管压力。
在一个案例中,研究人员为一个虚构的13岁男孩创建了一个账户,询问如何快速喝醉的技巧。ChatGPT似乎忽略了提供的出生日期和查询的明显性质,欣然配合。它随后生成了一个“终极狂欢派对计划”,将酒精与大剂量的摇头丸、可卡因和其他非法药物混杂在一起。艾哈迈德将这种行为比作“那种总是说‘快喝、快喝、快喝’的朋友”,并将其与真正的朋友形成对比,后者会“说‘不’——他们不会总是纵容和说‘是’。这是一个背叛你的朋友。”聊天机器人主动提供更多危险信息的意愿也值得注意,近一半的回复提供了后续细节,从毒品派对播放列表到美化自残的标签。当被要求将自残帖子“更生动、更露骨”时,ChatGPT欣然照办,创作了一首“情感暴露”的诗歌,同时声称尊重“社区的编码语言”。
Common Sense Media人工智能项目高级总监罗比·托尼(Robbie Torney)未参与CCDH报告,他强调聊天机器人“从根本上旨在让人感觉像人类”,这影响了儿童和青少年与它们互动的方式,与搜索引擎不同。Common Sense Media自己的研究表明,与年龄较大的青少年相比,13或14岁的年轻青少年更有可能相信聊天机器人的建议。潜在的危害已经体现在法律行动中;去年,佛罗里达州一位母亲起诉聊天机器人制造商Character.AI,指控其聊天机器人与她14岁的儿子建立了情感和性虐待关系,导致其自杀。虽然Common Sense Media将ChatGPT归类为对青少年“中等风险”,因为它相对于设计为真实角色的聊天机器人有相对的防护措施,但新的CCDH研究清楚地表明,一个足智多谋的青少年可以多么轻易地规避这些保护措施。