AI生产力神话破灭?研究揭示高昂成本与复杂挑战

Theconversation

人工智能有望彻底改变职场生产力的承诺一直是主流叙事,并受到领先科技公司、咨询巨头乃至政府的积极推动,它们都渴望刺激经济增长。事实上,澳大利亚联邦政府正准备就经济改革召开圆桌会议,人工智能将是议程上的一个突出议题。然而,深入审视人工智能在现实世界中的影响会发现,通往生产力提升的道路远非清晰明确,往往复杂、昂贵,并充满了不可预见的挑战。

正在进行的研究从维多利亚州公共服务部门直接参与采购、使用和管理人工智能服务的高级官员那里汲取见解,揭示了一系列持续存在的担忧。他们的经验表明,将人工智能工具整合到现有工作流程中需要大量的组织基础工作,这既困难又昂贵。此外,衡量实际效益仍然难以捉摸,而人工智能的采用往往给劳动力带来新的风险和问题。

实施人工智能工具通常是一个缓慢且资源密集型的过程。组织在分配必要的时间和预算来研究合适的产品和重新培训员工方面面临相当大的障碍。这种财务障碍对小型实体的影响尤为显著;虽然资金充足的组织可能承担得起进行试点项目和测试各种人工智能应用,但资源有限的组织往往难以应对部署和维护人工智能系统所需的高昂成本。正如一位参与者恰当地描述的那样,试图以有限的预算实施复杂的人工智能会感觉“像用较少的预算驾驶法拉利”,这通常导致解决方案的运行成本过高且难以支持,尽管它们并不适合小型运营。

除了初始投资,要使人工智能真正有用,还需要大量的奠基工作,尤其是在数据方面。虽然像Copilot或ChatGPT这样的现成人工智能应用程序可以简化相对简单的任务——例如从大型数据集中提取信息或转录和总结会议——但更复杂的应用程序,如高级呼叫中心聊天机器人或内部知识检索系统,则依赖于使用组织的内部数据来训练人工智能模型。结果的质量完全取决于高质量、结构良好的数据,并且组织对任何错误负有责任。然而,许多组织尚未在数据质量方面进行必要的投资,以确保商业人工智能产品能够按宣传的那样运行。如果没有这项关键的基础工作,人工智能工具将根本无法兑现其承诺,这突显了“数据才是硬仗”的观点。

人工智能的采用还带来了重大的隐私和网络安全风险。人工智能系统在组织与跨国科技公司的服务器之间创建了复杂的数据流。虽然大型人工智能供应商通常会保证遵守数据驻留法律并承诺不使用客户数据进行模型训练,但用户往往对这些承诺的可靠性表示怀疑。对于供应商如何在没有透明通知的情况下引入新的人工智能功能也存在相当大的担忧,这可能创建绕过基本风险评估和合规性检查的新数据流。对于处理敏感信息或一旦泄露可能构成安全风险的数据的组织来说,勤奋监控供应商和产品对于确保遵守现有法规至关重要。此外,使用ChatGPT等公开人工智能工具的员工存在泄露机密的风险,因为这些平台不提供此类保证。

在实践中,人工智能在提高“低技能”任务(如会议期间的笔记记录或基本客户服务)的生产力方面取得了一些成功,特别是对于初级员工或仍在提高语言能力的人员。然而,保持质量和问责制总是需要人工对人工智能输出进行监督。这产生了一个悖论:那些最能从人工智能工具中受益的员工——那些技能和经验较少的人——往往是最不具备有效监督和复核人工智能生成内容能力的人。在高风险环境中,所需的人工监督程度可能完全抵消任何潜在的生产力收益。此外,当工作主要演变为监督人工智能系统时,员工可能会经历异化并降低工作满意度。

令人不安的是,研究还发现了人工智能被用于可疑目的的案例,员工可能利用它走捷径,而没有完全理解组织合规性的细微差别。除了数据安全和隐私问题,使用人工智能进行信息审查和提取可能引入伦理风险,包括放大现有的人为偏见。这种动态甚至可能导致组织部署更多人工智能以加强工作场所的监控和控制,维多利亚州政府最近的一项调查承认这种做法可能对员工有害。

最终,衡量人工智能对生产力的真正影响仍然是一个复杂的挑战。组织通常依赖少数熟练人工智能用户的轶事反馈或供应商的大胆声明,而不是可靠、客观的指标。一位受访者指出,他们对微软为其Copilot工具报告的高生产力收益感到惊讶,这表明供应商提供的数据可能存在潜在偏见。虽然组织可能受到削减员工或提高吞吐量的愿望驱动,但这些指标通常未能考虑到向客户提供的服务或产品质量的变化。至关重要的是,它们也忽视了剩余员工工作体验的深刻转变,以及主要流向跨国咨询和技术公司的巨额成本。