瑞典首相用ChatGPT辅助决策引争议

Gizmodo

瑞典首相乌尔夫·克里斯特松最近透露他偶尔会使用ChatGPT来辅助其政府策略,此举引发了公众辩论。这一在北欧一家新闻媒体采访中做出的承认,引发了关于人工智能日益融入高层决策过程的广泛讨论。克里斯特松表示:“我自己经常使用它。即使只是为了获得第二意见。其他人做了什么?我们是否应该完全反其道而行之?就是这类问题。”他的评论表明了一种务实的AI使用方法,将其视为获取更广阔视角的工具,而非最终的真理来源。

然而,克里斯特松的坦诚迅速招致了各方的批评,包括AI伦理专家和媒体评论员。于默奥大学负责任人工智能教授弗吉尼亚·迪格纳姆对过度依赖此类系统的可能性表达了强烈担忧。迪格纳姆评论道:“他越是依赖AI处理简单事务,对系统过度自信的风险就越大。”她强调:“这是一条滑坡。我们必须要求可靠性得到保证。我们没有投票选举ChatGPT。”这凸显了一个根本性的担忧:公众信任从民选官员转移到不透明的算法系统。

媒体也提出了进一步的批评,瑞典报纸《晚报》的西格妮·克兰茨提出了尖锐的评论。克兰茨观察到:“对瑞典来说,AI大多是猜测,这很糟糕,”她补充说,“聊天机器人宁愿写它们认为你想要的,而不是你需要听到的。”这一评论强调了当前AI模型的一个关键缺陷:它们倾向于根据预测模式生成回应,而非基于事实准确性或客观真相。此外,克兰茨的观点触及了某些聊天机器人提供讨喜答案的倾向,这可能强化领导者已有的偏见,或推动他们得出未经审视的结论。因此,风险不仅在于依赖潜在的错误信息,还在于创建了一个回音室,其中AI验证了现有观点,而非通过独立的洞察力来挑战它们。

首相的这一披露有力地说明了一个日益增长的趋势:将复杂的智力任务外包给人工智能。虽然AI在数据处理和信息综合方面提供了前所未有的能力,但其在需要伦理判断、对人类社会细致理解和直接问责的领域中的应用引发了重大问题。这种担忧超越了领导者仅仅寻求“第二意见”的范畴,它触及了当人类关键思维和决策能力日益被委托给机器时,这些能力被微妙侵蚀的问题。政治领导力,就其本质而言,要求对人类价值观、社会复杂性以及独立、负责任的判断能力有深刻的理解——而这些是当前AI系统所不具备的品质。

瑞典的这一事件突显了AI技术快速发展与建立其部署(特别是在治理等关键领域)的伦理准则和公众理解的缓慢而审慎的步伐之间持续存在的张力。随着AI工具变得更加普遍和复杂,关于人类责任和算法辅助之间界限的辩论只会加剧,迫使社会在一个日益自动化的世界中努力应对领导力的根本性质。