拡大するAIコンパニオン市場:世界で数億人が利用する新たな心の支え

AIツールの利用者数は急速な拡大を続けている。Statistaのまとめによると、世界のAIツール利用者は2023年の2億5,400万人から、2030年には7億3,000万人と、約3倍増加する見通しだ。その用途は、従来のカスタマーサービスやChatGPTに代表される汎用的な会話だけでなく、個人の感情に寄り添う人格を持ったAIチャットボット(AIコンパニオン)へと広がりを見せている。

市場調査会社グランドビューリサーチの最新レポートによると、AIコンパニオン市場の規模は2024年時点で281億9,000万ドルに達したという。さらに2025年から2030年にかけて年平均30.8%という驚異の成長率で拡大する見込みだ。

市場成長を牽引する要因として、AIコンパニオンの職場コミュニケーションツールへの統合が挙げられる。たとえば、米ズーム・コミュニケーションズは2025年1月、カスタマイズ可能なタブや高度な並べ替え機能、AIコンパニオン統合によって生産性を向上させた新しいチームチャットサイドバーを発表。有料ユーザーは追加費用なしで、会話の要約やアクションアイテムの特定、コミュニケーションの効率化といった機能を利用できるようになった。

一方で、メンタルヘルスや感情面でのサポートを目的としたAIコンパニオンも市場の大きな部分を占めている。BBCによると、Character.aiの心理カウンセラーの役割を持つボット「Psychologist」に対して、2023年11~12月にかけて1,800万件ものメッセージが寄せられた。同サービスには心理学、セラピスト、精神科医といった言葉を名前に含む475のボットが存在し、複数の言語で対話ができる。

サンフランシスコを拠点とするCharacter.aiは、日々350万人のユーザーが訪れる人気プラットフォーム。同社によると、アニメやゲームキャラクターなど、エンターテインメント目的での利用が主流だという。しかし、メンタルヘルスサポートを目的としたボットの人気も高く、「Therapist」には1200万件、「Are you feeling OK?」には1,650万件のメッセージが寄せられている。

このようにAIチャットボットの利用は、ビジネスでの生産性向上から個人の感情面でのサポートまで、幅広い用途へと広がりを見せている。特に感情面のサポートは、ウェルビーイングの向上につながると期待されており、その動向が注目されるところ。以下では、AIコンパニオンとメンタルヘルス/ウェルビーイングの関係について、最新調査があぶり出す可能性とリスクを詳しく解説したい。

共感するAI:ハーバード研究が示す孤独感軽減の可能性

上記Character.aiの数字が物語るように、AIチャットボット(AIコンパニオン)が持つ可能性の1つとして挙げられるのが精神面のサポートだ。

ハーバード・ビジネス・スクールの調査「AI Companions Reduce Loneliness」(2024年6月)が興味深い数字を示している。この調査は、会話型AIコンパニオンがユーザーの孤独感を軽減する効果について因果的検証を試みたもの。

まず実施されたのは、アプリ内会話・レビュー分析だ。

Replikaなどの主要AIコンパニオンアプリの会話ログおよびApp Storeレビューを対象に、孤独に関する発言をLLM(大規模言語モデル)を用いて自動検出した。たとえば、Replikaのレビューのうち約19.5%が孤独に言及しており、これらのレビューは非孤独レビューより高い評価(平均4.73/5)になりやすい傾向が確認された。また、実際の会話においても全体の約5.6%の会話が孤独に関する内容を含んでおり、孤独が話題となる会話は通常よりも長く、より多くのターンで展開される傾向も観察されたという。

次に、実験室環境下で被験者に対し、AIコンパニオンとの15分間の対話前後で孤独感の変化が測定された。その結果、対話後の孤独感は平均して約6~7ポイント低下し、対人コミュニケーションと同等の効果が確認された。一方、YouTube視聴といった他のデジタル活動では有意な改善は認められなかった。

このほか、被験者を1週間にわたって毎日AIコンパニオンと対話させ、日々の孤独感の変化を追跡する分析も実施されている。まず初日に特に大きな孤独感の低下が見られ、その後も継続的に孤独感が軽減される傾向が確認された。

さらに重要な点として、AIの単なる応答よりも、ユーザーが「自分の話を聞いてもらえている」と感じる共感体験(feeling heard)が、孤独感の軽減において決定的な役割を果たしていることが判明。今後のAIコンパニオン設計に大きな示唆を与える調査結果となった。

UCLの研究者らによる調査も興味深い。

AIチャットボットユーザー5,260人を対象に実施されたこの調査では、メンタルヘルス効果に関して、男女で大きな違いがあることが判明したのだ。AIとの対話がメンタルヘルスにポジティブな影響を与えたとの回答割合は、男性ユーザーが10.5%だったのに対し、女性ユーザーは43.4%に上った。また、社会不安の管理においても、女性の38.9%が肯定的な影響を報告しており、男性の30.0%や他のジェンダーの27.1%を上回る結果となった。

長期的依存のリスク:AIコンパニオンがもたらす新たな社会課題

感情や精神面のサポートの可能性を持つAIコンパニオンだが、その利用には複数の重大なリスクが伴う。ケンブリッジ大学の研究者らによる最新報告書「AI Companions for Health and Mental Wellbeing」がこれらのリスクを詳細に分析している。

最も懸念されるのは「孤独感の悪化」だ。AIコンパニオンは短期的には安心感を提供するものの、人間同士の交流を代替すると長期的には孤立感を深める恐れがある。これまでの研究によれば、孤独は死亡リスクを26%も増加させるとされ、DCMSの「Loneliness Monetisation Report(孤独の金銭価値化報告書)」(2020年)では、その経済的コストは年間約1万ポンド(約190万円)/人に相当すると算出されている。

また「擬人化と依存性」の問題も深刻だ。人間らしい特性を持つAIの設計が、特に脆弱な状態(うつ病、悲嘆、認知症など)にある人々の依存を高めるリスクがある。これは商業的・政治的目的での搾取にもつながりかねない。実際、あるAIチャットボットが10代の自殺に関与したとされる事例が2024年に報告され、世界に衝撃を与えた。

さらに「感情体験の複雑さの軽視」という懸念もある。孤独感や悲嘆は極めて個人的で文脈依存的な体験であり、これらの根本原因にAIが効果的に対応できるかが疑問視されている。研究者らは、AIコンパニオンへの過度の期待が、公共機関や組織に「未検証の技術」への投資を促し、より複雑な社会的・感情的課題への対応を遅らせる可能性を指摘している。

医療分野でもリスクは顕著だ。特に薬の投与量や予後についての「ハルシネーション」(誤った情報の生成)の危険性が指摘されている。また、医療分野におけるAIコンパニオンの透明性の欠如(ブラックボックス性)も信頼構築を困難にしているという。

加えて、AIコンパニオンの利用が「医療従事者の雇用喪失」につながる恐れもある。特に受付や振り分けスタッフなどの中間的役割の自動化により、ケアの重要な段階での人間的接触が著しく減少する可能性が指摘されている。

これらのリスクに対応するため、報告書では「定期的な同意確認」や「透明性の向上」「広告の制限」など複数の政策提言が行われている。

文:細谷元(Livit