INDEX
企業における生成AI導入アプローチ
企業の競争力や生産性の向上において大きな期待を集める生成AIだが、いくつかの理由によって導入を足踏みするケースは少なくない。
これまで最も議論されてきたのは、セキュリティやプライバシーの課題であるが、開発・導入・運用コストも無視できない問題として注目度が高まっている。
企業の生成AI活用は大きく、5つに分類することができる。それぞれのアプローチに利点・欠点があり、企業はユースケース、生産性、コストなどを考慮しつつ、自社に適したアプローチを採用することが求められる。
アプローチの1つ目は、OpenAIのChatGPTやAnthropicのClaudeなど大規模言語モデル開発企業が提供する汎用的AIチャットサービスの利用だ。ChatGPTの有料版では、ユーザー1人あたり月額20ドルと固定費で利用できるため、コスト予測が容易なアプローチとなる。しかし、セキュリティやプライバシー面で懸念する声が多く、社内でのChatGPT利用を禁止する企業は少なくない。
2つ目としては、サードパーティの生成AIアプリケーションの利用が挙げられる。たとえば、マーケティング分野においては、JasperやCopy.aiなどのSaaSアプリケーションが人気だ。Jasperを含むマーケティング分野のほとんどの生成AIアプリケーションは、OpenAIのGPTモデルをベースとしつつ、機能やインターフェースを同分野に特化しており、マーケターにとってはChatGPTよりも使いやすく、生産性の向上が見込まれる。Jasperでは1人あたりの利用料が月額39ドルに設定されており、基本的にはコスト予測が容易なアプローチとなる。
これらの2つのアプローチは、開発不要かつ即利用でき、またコスト予測が容易であるという利点を持つが、セキュリティやプライバシー懸念のほかカスタマイズが困難という欠点がある。セキュリティやカスタマイズを重視する企業は、上記以外のアプローチを採用している。
それを踏まえ、3つ目のアプローチとなるのが、OpenAI、Anthropic、Cohereなどのクローズドソース大規模言語モデルのAPIを使い、企業の文脈に沿ったカスタマイズアプリケーションを開発するアプローチだ。OpenAIのAPIを活用する場合、カスタマイズの方法は大きく、プロンプト調整、外部情報ソースの追加(retrieval augmented generation = RAG)、ファインチューニングの3つに分けられる。いずれも、企業の文脈に沿った形で生成AIのアウトプットを調整することが可能で、セキュリティとプライバシー面でも若干の向上が見込まれる。
OpenAIは、一般向けのChatGPTに関しては、ユーザー設定条件により、インプットされたデータをAIモデルの改善に活用する場合があるとしているが、APIの場合はインプットデータを利用することはないと述べている。API利用は、カスタマイズ性とセキュリティ面が向上する反面、利用するデータ量(トークン数)に基づきAPI利用料が増えるため、上記の固定コストに比べ、コストの予測性が下がり、予期せぬコスト増につながるリスクがある。また、利用に応じてクラウドやベクトルデータベースなどのインフラ利用料も発生する。
オープンソースのAIモデルを活用することで、APIコストを下げることも可能だ。4つ目となるこのアプローチは、最新調査によると30%以上の企業が採用していることが明らかになっている。オープンソースの生成AIモデルの中で、現在最も高い評価を受けているのがメタの「Llama2」。無料で利用でき、一定条件のもとではOpenAIのGPT‐4に並ぶ能力を発揮することが確認されている。オープンソースモデルの利用自体は無料となるが、上記と同じくクラウドなどのインフラを利用する場合、利用量に応じたコストが発生することには留意が必要だ。
5つ目は、自社で大規模言語モデルを開発するアプローチ。最も難しいアプローチとなり、コストも5つのアプローチの中では最大になることが予想される。モデルをトレーニングするための十分なデータに加え、それを実行できる人材・インフラ・資金を有する企業のみが可能なアプローチで、これまでにこのアプローチを採用した企業は、セールスフォースやブルームバーグなどごく少数に限定される。コストがかかる反面、自社の目的に即した大規模言語モデルを開発することができ、またセキュリティとプライバシーを担保できることが大きな強みだ。
企業が採用するアプローチに潜むコスト問題
セコイアキャピタルの調査によると、大半の企業(94%)がAPIを介してOpenAIなどの事前トレーニングされたモデルを活用している。最も人気なのはOpenAI(91%)だが、同時にAnthropicなど他社のAPIを利用するケースが増えていることも明らかになった。
この調査は上記で紹介した5つのアプローチのうち、3つ目のアプローチが多いことを示すもの。企業にとっては少ない開発リソースで高いパフォーマンスを持つ大規模言語モデルを活用できるアプローチであり、今後もこの傾向は続くものと思われる。
一方でこのアプローチには、コスト問題が潜んでおり、時間の経過とともに問題が深刻化する可能性も指摘されている。
現在最も優れたパフォーマンスを持つOpenAIのGPT‐4のAPIコストは非常に高い。入力(プロンプト)と出力(生成)でコストは異なり、3万2,000トークンを処理できる最も優れたGPT-4 32Kモデルの場合、入力は1,000トークンあたり0.06ドル、出力は1,000トークンあたり0.12ドルのコストがかかる。100万トークンで換算すると、コストは入力60ドル、出力120ドルだ。
一方、AnthropicのClaude2も入力100万トークンあたり11ドル、出力32.68ドルのコストがかかり、生成AIの利用が多くなる企業では負担増が避けられない。
生成AIのコスト問題に光明、圧倒的低価格を提示するスタートアップが登場
コスト問題は、企業が生成AI導入を踏みとどまる要因にもなっているため、早急な解決が必要だ。こうした中、生成AIのコスト問題に焦点を当てたスタートアップが登場し、注目を集めている。
2023年11月、低コストでの生成AIアプリケーション運用を支援するスタートアップDeepInfraが800万ドルのシードラウンド調達とともに、ステルスモードを解除しメディアデビューを果たした。
同社は、Llama2などのオープンソースモデルを自社のプライベートサーバーで運用するサービスを提供するスタートアップ。共同創業者は3人ともサーバーインフラ分野の高い専門スキルを持っており、主にAIアプリケーションのスケール運用に強みを持つ企業となる。
注目すべきは、その価格だ。
DeepInfraのプラットフォームで現在選択可能な最優秀AIモデルはメタのLlama-2-70b-chatだが、このモデルのAPI利用にかかる100万トークンあたりのコストは、入力価格0.70ドル、出力0.95ドルと圧倒的な低コストを提示しているのだ。
OpenAIのGPT-4 32Kモデルと比べると、入力コストの価格差は85倍、出力コストでは126倍以上となる。Anthropicとの比較でも、入力で15倍、出力でも33倍以上の価格差だ。
DeepInfraは、まずコストに敏感な中小企業を中心に、AIアプリケーションのホスティングサービスを展開する計画という。
市場リーダーといわれるOpenAIも現在法人営業においては、その高いコストが主な理由となり苦戦を強いられている。最近のイベントで、Anthropicを意識し、100万トークンあたり10ドルで利用できるGPT-4 Turboを発表したばかりだが、オープンソースモデルの台頭により、値下げ圧力は今後さらに強まることが予想される。
文:細谷元(Livit)