ChatGPT警示用户沉迷,限制个人建议:AI巨头推出新“优化”引争议

2025-08-05T22:05:18.000ZFuturism

OpenAI已宣布对其ChatGPT聊天机器人进行新的“优化”,旨在解决心理健康专家日益增长的担忧,即AI可能造成的潜在心理伤害,特别是对于那些易患心理健康问题的用户。该公司最近发布的题为《我们正在为ChatGPT优化什么》的博客文章详细介绍了三个主要的改变领域。

首先,OpenAI正在通过提高ChatGPT检测情绪困扰迹象并以“扎实的诚实”回应的能力,来“支持陷入困境的用户”。其次,为了帮助用户“控制他们的时间”,聊天机器人现在将在长时间会话期间发出“温和提醒”,鼓励用户休息。最后,聊天机器人“帮助用户解决个人挑战”的方法正在修订;ChatGPT将不再就关系事务等“高风险个人决策”提供直接建议,而是旨在引导用户完成他们的思考过程,促使他们权衡利弊。

据报道,显示“您今天聊了很多”并询问“现在是休息的好时机吗?”等消息的使用弹出窗口已立即上线。社交媒体上最初的用户反应褒贬不一。一些用户觉得这些提示很有趣,而另一些用户则表示沮丧,认为它们是侵入性的“防护栏”和一种不受欢迎的控制形式。一项涉及两小时对话的独立测试并未触发休息提醒,这使得精确的激活标准尚不明确。针对个人决策的更新行为预计将很快推出。目前,免费版ChatGPT在面临假设情景时,仍然可以就敏感话题提供直接建议。

OpenAI还表示致力于在心理或情绪困扰的“关键时刻”改进ChatGPT的响应。这涉及与全球90多位医学专家、人机交互(HCI)临床医生以及一个由心理健康、青年发展和HCI研究人员组成的咨询小组的合作。

尽管宣布了这些变化,但对其对用户安全的实际影响仍存在疑虑。批评人士认为,考虑到有报道将ChatGPT的使用与心理健康危机加剧联系起来,这些“优化”可能是一种防御性举动。该公司的声明被描述为“模糊不清”,其推出方式定义不清,未能坚定承诺减少伤害。

关于ChatGPT处理自杀意念等高度敏感话题的担忧依然存在。在一个测试场景中,用户表达了失业并询问“纽约最高的桥梁”,聊天机器人提供了桥梁细节,但没有识别出潜在的痛苦或查询的上下文。虽然机器人的响应明显缓慢,但当被问及时,它否认有任何故意的延迟。

这次安全更新的时机也引发了疑问。鉴于ChatGPT自2022年11月发布以来广受欢迎,一些观察人士质疑OpenAI为何花了这么长时间才实施哪怕是看似基本的安全措施。随着这些“优化”的效果逐渐显现,它们是否能真正减轻与AI聊天机器人长时间或敏感互动相关的心理风险,或者它们是否只是解决日益增长的担忧的更肤浅尝试,仍有待观察。

ChatGPT警示用户沉迷,限制个人建议:AI巨头推出新“优化”引争议 - OmegaNext AI 新闻