ChatGPT開発元のOpenAIが年内に100万基超のGPUを稼働させる見通しであること、そしてそれでも足りず「あと100倍必要」と表明した事実が波紋を広げている。100倍とは1億GPU。費用にして約3兆ドル規模という天文学的な計算だ。

生成AIの性能向上にはそれだけ莫大な演算資源が要求され、すでにGPU不足が各所でボトルネック化している。実際、OpenAIはGPU不足のあまり機能制限や計算資源借用という「苦肉の策」に追い込まれた。

資金と計算力を持つ一部の巨大企業のみが突き進み、中小・新興勢はその背中を追う構図だ。これはAI産業の新たな「狂乱」であり、体力なき企業は生き残り策を真剣に模索せねばならない。

OpenAIの野望と悲鳴:100万GPUでは足りない

OpenAIのサム・アルトマンCEOが放った一言が、AI業界に衝撃を与えている。同社は2025年末までに「100万基を優に超えるGPU」を稼働させる計画だという。これだけでも前代未聞の規模だが、アルトマン氏は「今度は100倍にする方法を考えなければ(笑=lol)」と付け加えた。冗談めかした「lol」付きの発言だが、同氏の過去の実績を見れば、単なる冗談では片付けられない。

実際、OpenAIは今年2月、GPT-4.5のリリースを遅らせざるを得なかった。理由は「GPUが足りない」からだ。AI開発の最前線を走る同社ですら、演算資源の確保に四苦八苦している現実がある。

数字の規模感を整理してみよう。イーロン・マスク氏のxAIが今年話題となったGrok 4モデルは、約20万基のNVIDIA H100 GPUで動作している。OpenAIの100万基は、その5倍に相当する。しかもアルトマン氏によれば、それでも「まだ足りない」のだという。

仮に本当に100倍、つまり1億基のGPUを調達するとなれば、現在の市場価格で約3兆ドル、日本円にして約450兆円もの投資が必要になる計算だ。これは英国のGDPに匹敵する額。これには、電力需要や収容するデータセンターの建設費は含まれていない。

OpenAIは、すでにテキサス州に世界最大規模のデータセンターを建設中だ。現時点で300メガワットの電力を消費し、中規模都市を丸ごと賄えるほどの規模となっている。2026年半ばには1ギガワットに達する見込みで、テキサス州の電力網運営者からは「これほどの規模の施設に安定した電圧と周波数を供給するには、州の公益事業者でさえ苦労するような、コストのかかる急速なインフラ改善が必要」との警告も出ている。

こうした天文学的な投資が可能なのは、世界でもごく一握りの巨大テック企業に限られる。NVIDIAも来年まで主力AIハードウェアは売り切れ状態で、製造能力にも限界がある。アルトマン氏の「100倍」発言は、現在の技術や製造能力では実現不可能な数字だ。AGI(汎用人工知能)への道のりがいかに険しく、どれほど巨大な計算資源を必要とするかを物語る、象徴的な発言と言えるだろう。

GPU逼迫の実相:異例の「非常措置」まで

天文学的な計算資源を求めるOpenAIだが、現実は厳しい。同社は2025年5月、新しい画像生成機能「ChatGPT-4o」のリリース時に深刻なGPU不足に直面した。スタジオジブリ風の画像を生成する機能が爆発的な人気を呼び、わずか1時間で100万人以上の新規ユーザーが殺到。アルトマン氏は「GPUが溶けている」と表現するほどの事態に陥った。

この「前例のない規模」の需要急増に対処するため、OpenAIは苦肉の策を講じることになる。アルトマン氏自身が後に明かしたところによれば、同社は「多くの不自然なこと」をせざるを得なかったという。具体的には、研究部門から計算容量を借用し、一部機能の処理速度を意図的に低下させるといった措置だ。

さらに深刻なのは、最大の支援者であるマイクロソフトとの関係にも亀裂が生じている点だ。両社は5年間の独占契約を結び、OpenAIはマイクロソフトのクラウド資源を活用することになっていた。しかしニューヨーク・タイムズの報道によれば、OpenAIの膨大な計算需要が両社の関係を緊張させているという。

OpenAI側は、より多くの計算資源をより安価に提供するよう契約の再交渉を試みているとされる。同社スタッフの中には「他のAIスタートアップがAGI(汎用人工知能)を先に実現したら、それはマイクロソフトが十分な計算力を提供しなかったせいだ」と非難するまで上がっている。一方、マイクロソフト側も不満を募らせており、AI部門責任者のムスタファ・スレイマン氏がビデオ会議中に、OpenAIの製品開発の遅さに苛立ちを爆発させる場面もあったとされる。

こうした状況を打開すべく、OpenAIは自前のインフラ構築に乗り出している。ソフトバンクやオラクルと共同で進める「Stargate計画」がそれだ。総額5,000億ドル(約75兆円)を投じ、米国内に大規模データセンター網を構築する野心的な計画である。

しかし、この計画も順風満帆とは言い難い。当初は「テキサス州で最初のデータセンターがすでに建設中」とされていたが、最新の報道では「年末までにオハイオ州に小規模なデータセンターを建設する」という、より控えめな目標に修正。ソフトバンクとOpenAIの間では、建設地の選定など重要な条件で意見の相違が生じているとも報じられている。

計算資源の確保は、AI開発における最大のボトルネックとなっている。資金力のある企業でさえ、需要に追いつけないのが現状だ。この構造的な問題が、AI産業全体の発展速度を左右する重要な要因となりつつある。

多モデル・オープンソース戦略:生存を賭けた苦肉の策

計算資源の確保が困難を極める中、AI業界では新たな生存戦略が広がりつつある。「賢く軽量なモデル」を開発し、少ないGPUでも高性能を発揮させるアプローチだ。

スタンフォード大学の2025年AIインデックスレポートは、この動きを裏付ける興味深いデータを示している。GPT-3.5レベルの性能を実現するための推論コストが、2022年11月から2024年10月の間で280分の1以上に低下したという。ハードウェアレベルでは年間30%のコスト削減、エネルギー効率は年間40%の改善を実現。これらの進歩により、先進的なAIへの参入障壁が急速に低下している。

こうした効率化の背景には、モデル圧縮技術の進化がある。欧州のスタートアップであるPruna AIは2025年3月、AIモデル最適化フレームワークをオープンソース化した。同社の技術を使えば、Llamaモデルを8分の1のサイズに圧縮しながら、性能劣化を最小限に抑えられるという。OpenAIがGPT-4 Turboを開発する際に使用した「蒸留」技術も、大規模モデルから知識を抽出して軽量版を作る手法の一つだ。

中国勢の追い上げも目覚ましい。アリババは7月、最新のコーディングAI「Qwen3-Coder」をオープンソースで公開。同社によれば、DeepSeekやMoonshot AIなど国内競合を上回り、特定分野ではAnthropicのClaudeやOpenAIのGPT-4と同等の性能を達成したという。

さらに革新的なのは、ロボティクス分野でのアプローチだ。AI開発プラットフォームのHugging Faceは6月、わずか4億5,000万パラメータという小規模ながら高性能なロボティクスモデル「SmolVLA」を発表。なんと一般的なMacBookでも動作可能で、消費者向けGPU1台で訓練・展開できるという。同社は「非同期推論スタック」という技術により、ロボットの動作処理と視覚・聴覚処理を分離。これにより、急速に変化する環境でもより迅速な反応が可能になった。

オープンソースモデルの性能向上も著しい。スタンフォードのレポートによれば、オープンウェイトモデルとクローズドモデルの性能差は、わずか1年で8%から1.7%まで縮小したという。2024年に登場した注目すべきAIモデルの約90%は産業界から生まれたが、その多くがオープンソース化されている。

これらの動きは、巨大な計算資源を持たない企業にとって希望の光だ。中小企業やスタートアップでも、オープンソースモデルと圧縮技術を組み合わせることで、独自のAIサービスを構築できる時代が到来した。しかし、それでもなお計算資源の絶対量は必要だ。効率化には限界があり、真に革新的なAIを開発するには、やはり相応の投資が不可欠となる。

日本企業への警鐘:「計算力なきAI戦略」に未来はない

世界がAI計算資源の確保に奔走する状況下、日本の立ち位置は決して楽観できるものではない。米中が桁違いの投資を続ける一方で、日本のAIインフラ整備は明らかに後れを取っている。

投資規模の差は歴然としている。中国は核融合研究に年間約15億ドル(約2,250億円)を投じる構えだ。これは米国政府の2024年度研究予算を2倍近く上回る規模。AI分野でも同様の投資競争が繰り広げられている。スタンフォード大学の2025年AIインデックスによれば、2024年の米国の民間AI投資は1,091億ドルに達し、中国の93億ドル(約1兆3,950億円)の約12倍、英国の45億ドル(約6,750億円)の24倍という圧倒的な規模となった。

こうした中、日本も手をこまねいているわけではない。経済産業省は約10億ドル(約1,500億円)規模の投資を通じ、国立研究開発法人産業技術総合研究所(AIST)が運営する「ABCI 3.0」スーパーコンピュータの開発を支援している。このシステムは、数千基のNVIDIA H200 GPUを搭載し、AI特化性能で6エクサフロップス、汎用計算で410ペタフロップスという世界トップクラスの性能を誇る。

しかし、これでも世界の競争に追いつくには不十分だ。OpenAIが年内に100万基のGPU稼働を目指す中、日本の「数千基」という規模は桁が違う。さらに懸念すべきは、単純な計算資源の量だけでなく、それを活用するエコシステムの構築でも後れを取っていることだ。

ベインキャピタルベンチャーズのレポートは、AI競争の新たな局面を示唆している。純粋な性能差が縮小する中、競争力の源泉は「計算資源」「人材」「データ」「流通」の4要素にシフトしているという。日本企業が世界で戦うには、これら全ての要素で戦略的な対応が必要となる。

特に重要なのは協調戦略だ。単独で巨額投資を行うことが困難な日本企業にとって、国内企業連合や政府支援による共用AI計算基盤の整備は現実的な選択肢となる。ABCI 3.0のような国家プロジェクトを核に、産学官が連携してAI開発環境を整備することが急務だ。

また、海外クラウドプロバイダーとの戦略的提携も欠かせない。マイクロソフトやアマゾン、グーグルといった巨大テック企業のクラウドサービスを効果的に活用しながら、独自の強みを築いていく必要がある。

日本企業が認識すべきは、AI開発競争が「アルゴリズム開発」から「計算インフラ戦略」の次元に移行したという事実だ。優れたアイデアや技術があっても、それを実現する計算資源がなければ意味がない。自社のAI戦略において必要な計算リソースをどう確保し、どう活用するかを真剣に検討すべき時期に来ている。

文:細谷元(Livit