GAFAMをはじめとするテック大手によるAI投資が今後加速する公算が高まっている。GAFAMに関しては、各社直近の四半期報告で、AI投資・開発の現状と今後の計画に触れ、この先さらに投資額が増える可能性に言及している。

AIの中でも特に各社が注力するのは、ChatGPTのコアテクノロジーとなっている大規模言語モデルだ。データ学習などを含む開発段階に加え、サービスとして提供する段階でも、大量のコンピューティングを必要とするため、ハードウェアインフラへの投資が必須となる。さらに、大規模言語モデルの処理スピードを保持するには、比較的新しいハードウェアを活用する必要があるため、投資額は必然的に膨れ上がると予想されている。

各社、大規模言語モデルの開発、またコア技術を活用してどのようなアプリケーションを開発しようとしているのか、直近四半期報告でのCEO発言などからGAFAMのAI開発・投資の最新動向をまとめてみたい。

マイクロソフト、ジェネレーティブAIが成長エンジンに

まず、ChatGPTの開発元であるOpenAIに多額の投資を行い、ChatGPTをベースとするアプリケーションを多数展開しているマイクロソフトの動きをみてみたい。

マイクロソフトのサティア・ナデラCEOは四半期報告で、AIが今後同社の収益成長の柱になるだろうと発言。実際、OpenAIが開発した大規模言語モデルGPT4を統合した同社の検索エンジン「Bing」のダウンロード数が4倍増加し、Bingを通じた画像生成数も2億枚以上に達したと述べている

一方、今後こうしたAIアプリケーションを広く展開するには、大規模なデータセンターを構築する必要があり、それには大量の資本が必要になると警鐘を鳴らしている。

マイクロソフトが、データセンター構築に今後どれほどの資金を投じるのかは不明だが、New Street Researchの推計では、状況により40億〜800億ドルになると見積もられている。

これは、大規模言語モデルの開発・展開に広く利用されているNVIDIAのGPU「A100」を利用した場合の計算となる。A100をデータセンターで利用する場合、一般的に8つのA100を1組とする「DGX A100」というシステムが組まれる。マイクロソフトBingの検索を可能にするChatGPTモデルが、1秒以内に質問に回答するには、8つのGPUが必要となり、これを大規模展開する場合、マイクロソフトは8つのGPUからなるサーバーを2万台揃えなければならない。この時点におけるコストは40億ドル、またマイクロソフトがグーグル並に検索エンジンを展開する場合、コストは800億ドルに膨れ上がると試算されているのだ。

一方、このコスト増を回避するために、マイクロソフトは自社でAIチップを開発しているといわれており、上記ほどのコスト増にはつながらない可能性もある。

マイクロソフトは、Bingのほかにも、ワード、エクセルなどの既存プロダクトにAIを導入するなど、OpenAIのGPTモデルを様々なアプリケーションに統合している。直近の動きとしては、昨年10月に発表された「Microsoft Designer」にテキストから画像を生成するOpenAIのDALL-E2を統合、パブリックプレビュー版としてローンチしたところ。

画像生成領域では、CanvaがジェネレーティブAIを統合したバージョンを発表したほか、アドビやシャッターストックなどもAIによる画像生成機能を追加するなど、競争は激しくなっている。

グーグル、AIを既存の検索広告事業に応用

グーグルのAI投資も増加する見込みだ。

同社のサンダー・ピチャイCEOは、今四半期決算の投資家向け会議で、AI関連の目標達成に向け、着実に前進していると述べた上で、今後も同社のコア事業である検索エンジンでのAI活用を進めると発言した。

ピチャイCEOによると、現在グーグルはAIを活用し、広告コンバージョン率の改善や有害テキストの削減を進めているほか、AIの取り組みを加速するため、グーグル社内のAIチームBrainとアルファベット傘下となっているAI開発企業ディープマインドの統合にも着手しているという。

グーグルは現在、ChatGPTの競合となるBardのパブリックベータ版をいくつかの国で展開し、改善を進めている。当初Bardのベースとなる大規模言語モデルは、LaMDAと呼ばれるモデルが使用されていたが、より高度とされるPaLMに最近切り替えたばかり。

モデルの高度化やAIサービスの広域展開では、マイクロソフトと同様に多額のインフラ投資が必要になる。

アルファベットの会長ジョン・ヘネシー氏がロイター通信に語ったところでは、Bardのような「大規模な言語モデル」を使用することで、従来のキーワード検索と比較して、検索コストが10倍になる可能性があるという。しかし、プロダクトの微調整が進むにつれ、コストはすぐに下がる見通しとのこと。

モルガン・スタンレーの推計によると、グーグルの検索コストは、検索1回あたり約0.2セント、2022年だけでグーグル検索では3兆3000億回の検索が行われたという。これを踏まえ、グーグル検索の半分がBardによる検索になり、1回の回答が英文50ワードとする場合、2024年までに追加で60億ドルのコストが上乗せされる可能性がある。AI検索の追加コストは、主にコンピューティングコスト(チップ、メンテナンス、電気代など)に起因する。

一方、ロイター通信が伝えたグーグルの関係筋は、検索におけるジェネレーティブAIの正確なコストを把握するのは「時期尚早」であると指摘、今後、効率化や最適化により、コストは変化するだろうと述べている。

アマゾン、独自の大規模言語モデルとAIチップ開発へ

2023年4月13日に、ジェネレーティブAIプラットフォーム「Amazon Bedrock」を発表するなど、アマゾンもAI開発・投資の動きを活発化させている。

4月27日に開催された四半期決算報告では、アンディ・ジェシーCEOが同社における最新のAI取り組みについて詳細を語っている

ジェシーCEOはジェネレーティブAI市場が非常に巨大であるとした上で、AWSを通じてAmazon Bedrockを展開するほか、同社では現在独自の大規模言語モデルとAIチップの開発に乗り出していると発言した。

また大規模な言語モデルやジェネレーティブAIの存在は、以前から認識していたが、6〜9カ月前までそれほど魅力的なものではなかった。しかし、最近急速に改善しており、顧客体験を変革できるほどに魅力的なものになっていると、ジェネレーティブAIに対して強気の姿勢を示しているのだ。

さらにアマゾンは、AWSなどのコンピューティングリソースをフル活用することで、ChatGPTのような大規模言語モデルを開発できる数少ないプレイヤーになることが可能だとも発言しており、ジェネレーティブAI領域で、マイクロソフトやグーグルに追いつく姿勢を内外にアピールしている。

メタ、ソーシャルメディアを介し、ジェネレーティブAI事業を拡大する狙い

実際にジェネレーティブAI関連プロダクトをリリースしたマイクロソフト、グーグル、アマゾンに対し、メタは若干の遅れをとっている状況だ。

しかし、昨年からAI開発を目的とするインフラ強化を進めており、先行組を捉える算段を練っている。

ザッカーバーグCEOは直近四半期報告で、2021年末から注力しているメタバースについて、同社がメタバースに注力しなくなったわけではないことを明確にした上で、AI分野へのリソース投入を拡大し、ジェネレーティブAI開発を加速する方針を明らかにした。最終的には、3Dオブジェクトを生成するジェネレーティブAIなどを開発し、メタバース事業にも活用する計画であるという。

当面の目標は、フェイスブック、インスタグラム、WhatsApp、メッセンジャーなど既存のソーシャルメディアプラットフォーム向けのジェネレーティブAIのリリースだ。フェイスブック、インスタグラムでは、同テクノロジーを活用した画像生成機能、短編動画生成機能を追加、またWhatsApp、メッセンジャーでは、ジェネレーティブAIによるチャット体験の刷新を狙う。

ザッカーバーグCEOは、ジェネレーティブAI領域の中で特に「AIエージェント」に注目しており、既存のソーシャルメディアプラットフォームを通じて、数十億人に提供できると強気の姿勢を誇示している。

これに関して、メタでもさらにAIインフラ投資を拡大する計画があるとも語っており、アップルを除くGAFAM4社間のAI開発・投資競争は今後さらに激しくなるものと思われる。

文:細谷元(Livit