企業の生成AIに対するセンチメント

2023年は生成AIと基礎モデルへの関心が急速に高まった年となった。2024年は、これに続き企業の間で実際に生成IAIを活用する取り組みが増えてくる見込みだ。しかし本格運用するには、いくつかの課題を克服する必要があり、課題解決に向けた動きが先行して活発化するとみられる。

企業は生成AIに対してどれほどの関心を示し、またどのような課題認識を持っているのか、まず最新調査からこれらの現状を探ってみたい。

Dataikuの依頼によりForresterが米国とカナダの企業における経営層220人を対象に実施した調査(2023年12月発表)では、企業における生成AIへの関心が非常に高いことが分かった。調査対象となった企業の収益規模は、30億〜39億ドルが38%、40億〜49億ドルが37%、50億ドル以上が25%となっており、概ね大手企業における傾向を示す調査となっている。

今後1年におけるビジネス戦略において生成AIがどれほど重要であるかという質問では、「非常に重要(Critically important)」が14%、「とても重要(Highly important)」が48%となり、合わせて62%の企業が重要視していることが判明。また、今後2年というスパンでは、65%が重要と考えていることが明らかになった。

さらには、現在48%の企業が生成AIの利用を模索している、35%が試験的な運用を行っていると回答しており、計83%の企業がなんらかの取り組みを行っている状況も浮き彫りとなった。

ユースケースとして最も注目されているのは、カスタマーサポートの強化で、企業の64%が今後1年注力する分野であると答えている。このほか、新規プロダクト/サービス開発(59%)、データ/アナリティクス(58%)、ナレッジマネジメント(56%)、コンテンツ制作(55%)、ソフトウェア開発(55%)、社員の生産性向上(54%)などが今後1年の注力分野として挙げられている。

他の調査でも同様の傾向があぶり出されており、企業における生成AIへの関心は非常に高く、実際に取り組みを始めるケースも増加傾向にあるのが現状となっている。

しかし一方で、生成AIにはいくつかのリスク/課題が存在しており、本格運用に至るまでには、これらを克服する必要もある。Forresterの調査でもリスク/課題を認識する経営層は少なくないことが示された。

最も広く認知されているリスク/課題は、プライバシーとデータ保護に関するもの。31%がGDPRなどの法律に違反する可能性を懸念していると回答。社内におけるスキル開発、ガバナンス設計が課題とする回答も31%だった。このほか経営層が懸念する事項として、生成AIのバイアス問題(30%)とハルシネーション問題(28%)も挙げられている。

バイアス懸念、プロンプトエンジニアリングなど最新対策

バイアス問題とハルシネーション問題は、ChatGPTが登場して以来、高い関心を集めており、AI開発企業における対策、またこれらを抑制するアプローチ/ツールの研究開発が進んでいる。

バイアス問題における直近の進展としては、ダートマス大学の研究者らが2023年12月に論文で発表したアプローチが挙げられる。

ChatGPTのベースとなるGPT-3.5やGPT-4などの大規模言語モデルは、オンライン上の公開情報によりトレーニングされているため、生成するアウトプットには、トレーニングデータに含まれているバイアス情報が混入する場合がある。

ダートマス大学の研究者らは、BERTやT5を含む大規模言語モデルを使い、各モデルに組み込まれている「Attention Head」と呼ばれるモデルのパーツに変更を加えることで、大規模言語モデルのバイアスレベルを低下させることに成功したという。

GPT-3.5、GPT-4など人気のある大規模言語モデルのほとんどは「トランスフォーマー」と呼ばれるアーキテクチャで構築されている。GPTというワードが「Generative Pre-trained Transformer」の略であることからも、これらのモデルがトランスフォーマー技術を基盤にしていることが分かるだろう。

このトランスフォーマーにおいて重要なパーツの1つとなるのが「Attention Head」だ。Attention Headはモデルが長文を理解する際、文中のキーワードに注意(attention)を払い、それらがどのように関連しているのかを理解し、情報の優先順位付けを行う役割を担っている。通常1つのモデルに複数のAttention Headが存在し、文章の異なる側面に焦点を当てている。

ダートマス大学の研究者らは、大規模言語モデルに、バイアスが強調されたデータセットを意図的に与えトレーニングを行うことで、バイアスのかかったアウトプット生成に強く関連するAttention Headを検出することに成功。そのAttention Headを取り除くことで、モデルの言語能力に大きな影響を与えることなく、バイアスレベルを大幅に減少できたことを報告している。

このほかOpenAIの主要競合となるAnthropicが最新論の中で、プロンプトの調整により大規模言語モデルのバイアスや差別を減少できたと報告しており、プロンプトエンジニアリングによるリスク低減の可能性も示されている。

ハルシネーション懸念とRAGによる対策

生成AIが事実でないことをあたかも事実のように述べる「ハルシネーション」も企業における本格運用を妨げる大きな問題となっている。この問題への処方箋として注目されているのがRAG(Retrieval Augmented Generation)アプローチの活用だ。生成AIに関する2024年の注目トレンドの1つとしてRAGを挙げる専門家も少なくない。RAGを用いることで、ハルシネーションの確率が低下するためだ。

RAGとは簡単にいうと、大規模言語モデルがアウトプットを生成する際に、関連する外部情報や文章を検索し、その情報を統合して、アウトプットを生成させるアプローチ。ChatGPTがアウトプットを生成する際、そのアウトプットは学習データの情報をもとに生成されている。プロンプト(質問)に対する回答が学習データに含まれていない場合、ハルシネーションを起こしてしまいがちだ。RAGアプローチは、逐次関連情報を検索し、その情報を大規模言語モデルに与えるため、学習データに回答が含まれていない場合でも、正確な回答を生成させることが可能となる。ベクトルデータベースなどRAGアプローチ向けのインフラも整備されてきており、RAGベースの生成AIアプリケーションも増加傾向にある。

RAGに関する目下の課題は、検索精度を高めつつ、スピードをどのようにあげていくのかという点。これに関してAnthropicに並ぶOpenAIの主要競合となるCohereがリリースしたAIモデル「Cohere Embed v3」に注目が集まるほか、新たなRAG手法の研究開発も進んでおり、2024年はRAGが新たなキーワードとして浮上する可能性が高まっている。

文:細谷元(Livit