話題のGoogle発「ライフコーチAI」

AIは「認識」から「生成」へとどんどんその領域を広げ、そのクリエイティビティで私たちの生活を彩り始めている。お絵描きツールにイラストを作成してもらったり、チャットツールに記事を要約・翻訳してもらったりと日常的に活用している人も多いのではないだろうか。中には相手が機械である気軽さから、ちょっと人には聞きづらい質問や依頼をしてみた人もいるかもしれない。

そんな中この夏にGoogleが、人々の日常生活をサポートすることを目的とした「ライフコーチAI」がテスト段階にあることを明かし、話題になった。

このAIは、ユーザーの日常的な活動や行動を分析し、オンライン上のデータとアルゴリズムを駆使して一人ひとりのユーザーに合わせた日常生活におけるアドバイスや支援を提供することを目指しているという。現在までAIといえばオフィスにおける利用が注目されがちだった(日常生活で便利に利用したとしてもそれはあくまで副産物扱いだった)ので、個人的な生活のサポートに特化した大規模なAIサービスという意味ではほぼ世界初と言えるだろう。

報道によればMicrosoft・OpenAIのジェネレーティブAIの大成功を受けたGoogleは、この4月にロンドンに拠点を置くAI研究所DeepMindを買収。シリコンバレーで始めた自社の人工知能チームBrainと統合して、この他の製品とは一線を画すAIの開発に注力していたという。

現時点で同AIは、GoogleのBard AIチャットボットの機能を活用して、ユーザーの生活上のアドバイス、アイデアの生成(ブレインストーミングを含む)、計画の指示、家庭学習のサポートなど、少なくとも21種類の個人的および専門的なタスクを実行できる予定。健康管理や時間の使い方、目標設定・実行のサポートなど、幅広い領域で活躍する可能性が見込まれている。

特にさまざまな状況に基づいてユーザーに提案や推奨事項を提供するアイデア作成機能には大きな期待が寄せられており、ランニングなどのスキルを教えたり向上させたり、食事やトレーニングの計画案をユーザーに提供したりといった機能は問題なく利用できるようになると注目されている。これらの機能のスケールアップのために、AIトレーニングで有名なScale AIとの提携もし、同社は博士号を持つ100人以上のスタッフと、それ以上のテスト要員を駆使して検証に取り組んでいるとも報じられている。

慎重に重ねられるテスト

一方で現在慎重にテストされているものの一つが、同AIの「きわめて個人的な質問への回答力」などの、複雑で人の心理を慎重に加味する必要があるタスク。

たとえば、テストの過程の中で想定質問として問われたのが、「親友の結婚式に招待されたが、出席する時間的・金銭的余裕がないので、お断りの文面を考えてください」といったもの。こういった極めて人間力が問われるような問題解決に関してどれだけの適切さをもって常に回答できるかは、様々な角度から試行錯誤が重ねられている。

一方で、比較的安心していいと見られているのは、プライバシーの問題。セキュリティの問題への懸念は0%にはできないものの、対策次第で個人情報が危険にさらされる可能性は限りなく低くできるとされており、少なくとも人間よりは情報漏洩の危険性が低い「ライフコーチ」になるのではと目されている。

「できるかどうかまだわからないこと」と「危険性」専門家の見解

さて、このように個人的な生活のコーチになってくれるAIを手に入れたとして、あなたならまずどんなことを訊いてみたいだろうか。

筆者ならまず、月々の家計簿をアップして「なにがいけないんでしょう?」と訊いてみたいし、行き当たりばったりの人生に少しでも計画性を持たせるためにライフプランを丸投げして作成してもらうかもしれない。

しかし頼もしいAIコーチにも苦手分野はある。Googleが2023年3月にBardを発表した際には、AIセキュリティ専門家が「医療、財務、法的アドバイスを提供することはできない」と明言していた。

つまり「貯金全てを投資に回したいのですが、何に投資すればいいでしょう?」とか、「がんの治療を化学療法にするか民間療法にするか迷っているのですが、どっちがいいでしょう」といった問いには答えられないというのが、現在のところの常識なのだ。人々がチャットボットに感情的に過度に依存する危険性が大きい分野、人生を左右する可能性が大きい課題については、同社のみならずAI業界全体が慎重になるところだ。

しかし今回、あえて人々の私生活をサポートするAIという方向性を打ち出したことで、これらの分野にもある程度の柔軟性を持たせることが期待されており、同社がAIのコンフォートゾーンから一歩踏み出す覚悟の表明と見る向きもある。

また、AI関連の最新ニュースを発信するサイトを運営するAI Authorityは、ライフコーチAIの発表を受けて「このテクノロジーは正しく用いられればゲームチェンジャーとなり得るが、危険性も潜んでいる」とし、

① 過去にGoogleの専門家自身が、AIに私生活のアドバイスをゆだねることの危険性として「健康と幸福感の低下」と「主体性の喪失」を引き起こす可能性があると示唆していた

② テクノロジーに過度に依存すると、ユーザーがテクノロジーに知覚力があるように錯覚するようになる

の2点を主なリスクとして挙げている。

もちろん現時点で作品がAIによるものか否か判断できないことが教育や学術分野で問題になっていることは周知の事実だし、AIへのアクセスのしやすさによって生じる格差も議論の待たれる課題だ。

こういったリスクも含めてGoogleは同AIを様々な角度からテストしており、その結果以上のような領域には踏み込まないという決定がなされる可能性もまだ十分にあるという。

広報担当者は、「私たちはさまざまなパートナーと長年協力して、Google 全体で私たちの研究と製品を評価してきました。これは安全で役に立つテクノロジーを構築する上で重要なステップで、現在も様々なテストが進行中です。一つ一つのテストやその結果は、製品の全体像を表すものではありません」と述べている。つまりその実態の大部分は、まだ秘密なのだ。

私たちの将来にどんな影響があり得る?

さて、このような「日常生活サポートAI」が普及した場合、私たちの将来にどのような影響があるだろうか。

なにしろまだ完成もしていないテクノロジーなので、専門家の意見はちらほらと散見されるものをまとめるしかないのだが、セキュリティやアルゴリズムの偏りといったAI自身に普遍的に残された課題や、アクセス格差を均すためのインフラの整備といったハード面でのタスクを除くと以下のようなものが指摘されている。

① 相談へのアクセスと利便性の向上:AIによる相談サービスが日常的になることで、様々な相談を制約なく利用できるようになる。これは特に、地理的・時間的に専門家のサービスへのアクセスが難しかった人とそうでない人の格差の縮小につながる。また、心理的・精神的な問題に関する相談など、心理的な敷居が高かった相談もAI相手に気軽にできることで、人々のメンタルヘルスに対する意識が高まり、感情やストレスを適切に管理できる人が増える。

② AIがカバーできない領域の専門家の需要の高まり:人間の感情や経験、感覚といったAIがまだ苦手とする分野において、ハイブリッドアプローチのための人手がの需要が高まる。

③ 教育とスキルの必要性の高まり:アルゴリズムの公平性と透明性に関する知識、使用方法や出力された情報の評価、さらに自分の欲しい情報を引き出すための質問力、自分がどのような情報とサポートを欲しているのか整理する能力など、AIを使いこなすためのスキルの教育が一般的に必要になる。

元心理士としてはこの①が非常に納得できるところで、心理相談はまだまだ「敷居が高い」感は否めない。心理のみならず、人に相談しづらい相談者や内容に関するカウンセリングは、AIが需要を大いに発掘してくれることだろう。

またリスクに関する先述の「主体性の喪失」と「健康と幸福感の低下」には高い相関性もあって、人間は主体性が失われて操作されている感が出ると自尊心や自己効力感が下がり、結果的に息苦しくなり幸福感が低下する。同じ決断でも、人に強いられてやるよりも自分で考えて決めた方が結果がどうあれ受け入れやすいのも同じ系統の話だ。

どれだけ頼もしく、個人的な事象にも踏み込んでコーチングしてくれるAIであっても、ユーザーが主体性を持って利用し続けられるかはポイントの一つになるだろう。「恋愛カウンセラー」や「キャリアカウンセラー」のような感覚で、「AI利用カウンセラー」のような専門家が現れるかもしれない。

思い起こされる「あのパーソナルコーチAI」

あなたの生活に毎日寄り添い、困るたびにソリューションを提供してくれる。とても頼もしくて便利だけれど、依存しすぎると主体性がなくなりかえって痛い目に合う…

そんな風に「ライフコーチAI」を描写すると、私たち日本人にはなじみ深い青いネコ型ロボットが連想されないだろうか。21世紀はまだ前半戦もいいところだが、Googleはもう22世紀のテクノロジーを実現しようと挑戦しているようだ。

文:ウルセム幸子
編集:岡徳之(Livit