もはや「使わない」は選択肢にない? AI浸透の実態

気づけば同僚の半数近くがAIに頼り切り。それが2025年の職場の現実だ。

OwlLabsとPulseが実施した知識労働者1,000人を対象とした調査によると、実に67%の企業が業務関連でAIを活用していることが判明した。これは前年と比較して大幅増加となる数値で、AIが特別な技術ではなく、日常的な業務ツールとして定着しつつあることを示唆するものだ。

同調査で、まず注目されるのが、従業員のAI依存度の高さだろう。調査回答者の46%が「AIに大きく依存している」、または「ある程度依存している」と回答、AIがすでに業務遂行に欠かせない存在となっていることが示された。世代別では、Z世代の70%が「AIに大きく依存している」と回答しており、若い世代ほどAIとの親和性が高いことも浮き彫りとなった。

具体的な活用場面を見ると、最も多いのがスケジュール管理やカレンダー管理といった事務作業で35%、次いでデータ分析が33%、メールやレポートなどのコンテンツ作成が30%だった。AIが単純作業の効率化から、より高度な分析業務まで幅広く浸透し始めていることを示す数字だ。

企業側の姿勢も大きく変化している。調査では24%の企業がAI利用を積極的に奨励し、ツール提供、研修、明確なガイドラインを整備していると回答。OwlLabsのCEOであるフランク・ワイシャウプト氏は「初めて、AI利用が積極的に奨励される状況を目にしている」と語った。実際、AI利用を禁止している企業はわずか4%にとどまり、大半の企業がAI活用に前向きな姿勢を示している。

ChatGPTの開発企業OpenAIのサム・アルトマンCEOは、こうしたユーザーの行動に関して興味深い実態を語っている。

同氏によると、年配者はChatGPTをグーグル検索の代替として使う傾向があるのに対し、大学生世代(Z・アルファ世代)は「オペレーティングシステム」のように活用しているという。若い世代は複雑なプロンプトをスマートフォンのメモに保存して、頻繁にAIに問題や質問を投げかけているのだ。「彼らは、人生のあらゆる出来事や人間関係を理解し、これまでの会話をすべて覚えているChatGPTに相談せずに、決断を下すことはない」とアルトマン氏は述べている。

しかし、この依存度の高さには注意が必要だ。スタンフォード大学教授でAI科学者のルイス・ローゼンバーグ氏は、「AIには”世界モデル”が存在しないため、現実世界のコンテキストを必要とする質問には苦戦する」と指摘。AIは”すべての方向から同時に物事を考える”特性があることから、時計の読み取りのような方向性を持つタスクで誤りやすいという。プロセス科学者のサム・ドラウシャク氏も「AIは新しいことは何もしない。異なる領域から物事を統合できるが、それは優秀なインターンのようなもの」と評価し、作業内容の確認が重要だと強調している。

便利の裏に潜む落とし穴――AI活用の意外なリスク

AI導入が加速する中で、特に注意したいのが相次ぐ予想外のトラブルだ。KPMGが今年4月に発表した調査結果が衝撃的な実態を映し出した。AI利用者の57%が「AIの誤った出力により業務でミスを犯した」と回答し、さらに44%が「意図的に不適切な使い方をした」ことを認めているのだ。

最も深刻なのは、セキュリティ面でのリスクだろう。従業員の約半数が、AI利用が社内で許可されているかどうかを確認せずに使用。また、46%が機密性の高い企業データを公開プラットフォームにアップロードした経験があるという。これは単なる不注意では済まされない。顧客情報や財務データ、開発中の製品情報などが外部に流出するリスクにつながるおそれがある。

組織内の摩擦も無視できない問題となっている。WriterとWorkplace Intelligenceが実施した調査では、経営幹部の約3分の2が「AI導入によって社内に分断が生じている」と認めた。IT部門と他部署、経営陣と従業員の間で対立が発生し、3分の1以上の経営者がAI導入を「大きな失望」と評価している。

さらに驚くべきことに、一部の従業員が意図的にAI戦略を「妨害」していることも明らかになった。特にZ世代とミレニアル世代の41%がこうした行動を取っており、平均して3人に1人の従業員がAIツールの使用を拒否したり、AI関連の研修をスキップしたりしているという。

トレーニング現場でも問題が発生している。Moodleの調査によると、米国従業員の半数以上が職場の必須研修をAIツールに代行させており、21%が難しい質問への回答をAIに依存、19%が部分的にAIを活用、そして12%に至っては研修全体をAIに任せきりにしていることが判明した。

Writerの最高戦略責任者であるケビン・チャン氏は、「これらの課題は些細なものではない。堅実な変更管理、ベンダー品質の向上、IT部門と他部門間の協力強化が不可欠だ」と警鐘を鳴らす。特に内部の不整合や権力闘争は、AI導入プロセスをさらに複雑化させる要因になり、企業の競争力を削ぐことになりかねないため、早急な対策が求められる。

「人間の監視」だけでは不十分、真のAIガバナンスとは

企業がAIのリスクを最小化しつつ効果を最大化するには、戦略的なアプローチが不可欠だ。

まず重要なのが、明確なガバナンスフレームワークの構築である。マイクロソフトの調査では、79%のリーダーがAI導入は競争力維持に不可欠と認識する一方、60%がAI実装のビジョンと計画の欠如を懸念していることが判明した。

効果的なAIガバナンスの第一歩は、組織全体の方針策定にある。利用可能なツールの明確化、禁止事項の設定、データ取り扱いルールの整備などが基本となる。

Galileo.aiが提案する7段階のフレームワークでは、規制環境の理解から始まり、ガバナンス体制の確立、評価システムの実装へと進む。特に重要なのは、業界特有のリスクに対応したカスタマイズだ。金融機関であれば融資アルゴリズムのバイアス監視、医療機関なら患者プライバシーの保護が優先事項となる。

人間による監視体制の構築も欠かせない。BCGの分析によれば、単に「人間を配置する」だけでは不十分で、監視プロセス自体を設計する必要がある。たとえば、レビュー担当者向けの明確な評価基準の策定、エラーエスカレーションの仕組み構築、そして定期的な品質管理プロセスの実施が求められる。

部門横断的な協力体制も成功の鍵を握る。AI倫理委員会の設置により、技術、法務、リスク管理、経営陣の代表者が定期的に集まり、モデルのパフォーマンスレビューや新たなリスクの議論を行う。Writerのチャン氏は「ITリーダーとビジネスリーダーが協力して構築することで、AI施策が技術的に健全であるだけでなく、より広範なビジネス目標と整合することを確保できる」と強調する。

従業員教育も重要な要素だ。AIの能力と限界についての理解を深め、意図された用途から逸脱した使用を防ぐ。各AIシステムには「システムカード」を用意し、機能、用途、制限事項、リスク、テスト結果を文書化して全ユーザーがアクセスできるようにすることが重要だ。

最後に、将来を見据えた柔軟な体制構築も必須となる。技術の進化に合わせて方針を更新できる仕組みを整え、規制動向(EU AI法など)を継続的に監視する専任チームの設置も検討することが求められる。

文:細谷 元(Livit