秘密AI在职场蔓延:澳大利亚急需明确规则遏制“影子AI”

Theconversation

根据一份最近的联邦政府报告,相当一部分澳大利亚员工在工作中秘密使用生成式人工智能(Gen AI)工具,通常在雇主不知情或未经明确批准的情况下。由澳大利亚就业和技能部发布的《我们的生成式AI转型:对工作和技能的影响》报告引用多项研究表明,21%至27%的员工,尤其是在白领行业,都在背着经理使用AI。

这种秘密采用呈现出惊人的矛盾。虽然联邦财长和生产力委员会积极鼓励澳大利亚人拥抱AI的潜力,但许多员工却觉得不得不隐瞒自己的使用。报告中列举的常见原因包括认为使用AI构成“作弊”,以及害怕被视为懒惰或能力不足。

这种未经批准的AI“影子使用”的兴起,凸显了澳大利亚工作场所当前AI治理的重大空白,使员工和雇主都不确定适当的行为规范。虽然这种由员工主导的实验有时可以作为自下而上创新的隐藏驱动力,尤其是在早期采用者成为非官方领导者的行业中,但它也带来了巨大的风险。报告警告说,如果没有明确的治理,这种非正式的实验,尽管是创新的来源,却可能导致实践碎片化,使其难以在后期规模化或整合。至关重要的是,它加剧了数据安全、问责制、合规性以及结果不一致等方面的担忧。

事实上,现实世界的案例强调了不受监管的AI使用可能导致严重失败。在维多利亚州,发生了一起引人注目的事件:一名儿童保护工作者将涉及针对幼童性犯罪的敏感案件详情输入到ChatGPT中。这导致维多利亚州信息专员下令,在该州儿童保护人员在2026年11月之前禁止使用AI工具。律师也因AI滥用而面临审查,美国、英国和澳大利亚都出现了有记录的案例,包括最近一份涉及AI为墨尔本一起谋杀案生成误导性信息的报告。然而,即使在法律界,规则仍然零散,并且各州之间存在显著差异。虽然新南威尔士州的一名律师现在被明确禁止使用AI生成或修改宣誓书内容,但其他州和地区尚未采取如此明确的立场,即使对于具有关键道德义务的行业,监管环境也依然支离破碎。

这种不一致性凸显了报告对澳大利亚向生成式AI转型的国家级管理提出的紧急呼吁。报告主张建立一个协调的国家框架、集中化的能力以及全国性的数字和AI技能提升。这与更广泛的研究相符,后者表明澳大利亚当前的AI法律框架存在重大盲点,需要对我们的知识体系进行根本性反思。在缺乏此类全面国家政策的情况下,雇主不得不应对一个碎片化且常常相互矛盾的监管环境,增加了违规风险。虽然针对AI的全国统一立法将提供一致的方法,反映技术本身无国界的性质,但其目前实施的可能性似乎不大。

鉴于这种复杂的局面,寻求遏制秘密AI使用的雇主必须积极主动地建立更明确的政策并提供全面的培训。一些法律管辖区内新兴的、尽管不完善的书面指导可以作为基础性步骤。然而,最终的解决方案在于更健全、更积极的国家AI治理。这将需要明确的政策、道德准则、风险评估和合规性监控,为员工和雇主提供急需的清晰度。如果没有这种统一的方法,那些本可以推动澳大利亚AI转型的员工可能会继续在阴影中运作,被误判为懒惰或不诚实的恐惧所困扰,而不是被赋能成为创新者。