AI生産性の夢は幻か?高コストと複雑な課題が浮上
職場の生産性を革新するという人工知能の約束は、主要なテクノロジー企業、コンサルティング大手、さらには経済成長を刺激したい政府によって積極的に推進される支配的な物語となってきました。実際、オーストラリア連邦政府は経済改革に関する円卓会議を開催する準備を進めており、その議題にはAIが prominent に取り上げられています。しかし、AIの現実世界における影響を深く見てみると、生産性向上の道筋は決して明確ではなく、多くの場合、複雑で費用がかかり、予期せぬ課題に満ちていることが示唆されています。
ビクトリア州公共サービス内でAIサービスの調達、利用、管理に直接関与している上級官僚からの洞察を得た進行中の研究は、一連の一貫した懸念を明らかにしています。彼らの経験は、AIツールを既存のワークフローに統合するには、困難で費用のかかる多大な組織的基礎作業が必要であることを示しています。さらに、実際の利益を測定することは依然として困難であり、AIの導入はしばしば労働力に新たなリスクと問題をもたらします。
AIツールの導入は、しばしば時間とリソースを大量に消費する試みです。組織は、適切な製品を調査し、スタッフを再訓練するために必要な時間と予算を割り当てる上でかなりの障害に直面します。この財政的障壁は、小規模な組織に不釣り合いに影響を与えます。資金が豊富な組織はパイロットプロジェクトを実施し、さまざまなAIアプリケーションをテストする余裕があるかもしれませんが、リソースが限られた組織は、AIシステムの展開と維持にかかる多額の費用に苦労することがよくあります。ある参加者が的確に表現したように、限られた予算で洗練されたAIを実装しようとすることは、「少ない予算でフェラーリを運転するようなもの」だと感じられ、多くの場合、小規模な運用には不向きであるにもかかわらず、運用コストが法外に高く、サポートが難しいソリューションにつながります。
初期投資を超えて、AIを真に有用にするには、特にデータに関する広範な基盤作業が必要です。CopilotやChatGPTのような既製のAIアプリケーションは、大規模なデータセットからの情報抽出、会議の文字起こしや要約といった比較的単純なタスクを効率化できますが、高度なコールセンターのチャットボットや内部知識検索システムのようなより複雑なアプリケーションは、組織の内部データでAIモデルをトレーニングすることに依存します。結果の品質は、高品質で適切に構造化されたデータに完全に左右され、組織はあらゆるエラーに対する責任を負います。しかし、多くの組織は、商用AI製品が宣伝どおりに機能することを保証するために必要なデータ品質への投資をまだ行っていません。この重要な基盤作業がなければ、AIツールはその約束を果たすことはなく、「データこそが大変な作業である」という感情を強調しています。
AIの導入は、プライバシーとサイバーセキュリティに関する重大なリスクももたらします。AIシステムは、組織と多国籍テクノロジー企業のサーバーとの間に複雑なデータフローを生成します。大規模なAIプロバイダーは通常、データレジデンシー法への準拠を保証し、モデルトレーニングに顧客データを使用しないことを約束しますが、ユーザーはこれらの約束の信頼性について懐疑的な見方をすることがよくあります。また、ベンダーが透明な通知なしに新しいAI機能をどのように導入する可能性があるかについてもかなりの懸念があります。これは、重要なリスク評価やコンプライアンスチェックを回避する新しいデータフローを生み出す可能性があります。機密情報や、漏洩した場合に安全上のリスクをもたらす可能性のあるデータを扱う組織にとって、既存の規制への準拠を確保するためには、ベンダーや製品の diligent な監視が不可欠です。さらに、ChatGPTのような公開されているAIツールを使用する従業員は、これらのプラットフォームがそのような保証を提供しないため、機密性を損なうリスクがあります。
実際には、AIは「低スキル」タスク、例えば会議中のメモ取りや基本的な顧客サービスにおいて、特にジュニアスタッフや言語能力をまだ向上させている人々に対して、生産性向上に一定の成功を示しています。しかし、品質と説明責任を維持するためには、AIの出力に対する人間の監督が不可欠です。これはパラドックスを生み出します。AIツールから最も恩恵を受けるはずの労働者、つまりスキルや経験が少ない人々は、AIが生成したコンテンツを効果的に監督し、再確認する能力が最も低いことが多いのです。高リスクの環境では、必要とされる人間の監督の度合いが、潜在的な生産性向上を完全に打ち消してしまう可能性があります。さらに、仕事が主にAIシステムの監督に帰着する場合、労働者は疎外感や仕事の満足度の低下を経験する可能性があります。
憂慮すべきことに、この研究は、AIが疑わしい目的で使用されている事例も発見しました。労働者が組織のコンプライアンスのニュアンスを完全に理解せずに、AIを利用して近道をしている可能性があるのです。データセキュリティとプライバシーの懸念に加えて、情報レビューと抽出にAIを使用することは、既存の人間の偏見の増幅を含む倫理的リスクをもたらす可能性があります。この力学は、組織が職場の監視と制御を強化するためにさらに多くのAIを導入することにつながる可能性さえあります。これは、最近のビクトリア州政府の調査が労働者にとって潜在的に有害であると認識した慣行です。
最終的に、AIが生産性に与える真の影響を測定することは、依然として複雑な課題です。組織は、堅牢で客観的な指標ではなく、少数の熟練したAIユーザーからの逸話的なフィードバックや、ベンダーの大胆な主張に頻繁に依存しています。あるインタビュー対象者は、MicrosoftがそのCopilotツールで報告した高い生産性向上に驚きを示し、ベンダーが提供するデータに潜在的な偏りがある可能性を示唆しました。組織は人員削減やスループットの増加を望むかもしれませんが、これらの指標は、顧客に提供されるサービスや製品の品質の変化を考慮に入れていないことがよくあります。決定的に、それらは残された従業員の職場体験における深い変化や、主に多国籍のコンサルティング会社やテクノロジー企業に流れる多大なコストを見落としています。