Googleが仕掛ける「100万チップ」の賭け NVIDIA包囲網の切り札「Ironwood」は推論時代の覇者になれるか
INDEX
Anthropic「100万チップ契約」の衝撃――数百億ドルがGoogleに流れた理由
ChatGPTの最大の対抗馬と目される「Claude」。そのClaudeを開発するAI企業Anthropic(アンソロピック)が2025年10月、Google Cloudと「最大100万個のチップにアクセスする契約」を締結した。AI業界最大級のインフラ投資として注目を集めている。
契約金額は「数百億ドル(数兆円)規模」とされており、2026年には「1ギガワット超」の計算能力がオンライン化する見込みだ。1ギガワットといえば、約100万世帯分の電力消費に相当する途方もないスケールである。この契約でAnthropicは、Googleの第7世代TPUチップ「Ironwood」最大100万個の使用権を獲得した。
この規模のチップ群を一企業が確保する例は前代未聞。業界では1万から5万個のチップ集積でも「巨大クラスター」と呼ばれるのが現状だ。なぜAnthropicはこれほどの投資に踏み切ったのか。同社のクリシュナ・ラオ 最高財務責任者は「当社の顧客は大企業からAIネイティブなスタートアップまで幅広く、最も重要な業務にClaudeを活用している。指数関数的に増大する需要に応え、モデルを業界最先端に保つには、この拡張された計算能力が不可欠だ」と説明する。
実際、Anthropicの大口顧客数は過去1年で約7倍に増加しており、現在は30万社を超える企業顧客を抱えている。この契約でGoogleが「二重の利益」を得る構造になっている点も見逃せない。GoogleはすでにAnthropicに出資しており、今回のクラウド契約で巨額の売上も確保できるからだ。
第7世代TPU「Ironwood」の実力――性能4倍、NVIDIA Blackwellに真っ向勝負
では、Anthropicが巨額を投じて確保した「Ironwood」とは、どのようなチップなのか。Googleが2025年11月に一般提供を開始した第7世代TPU「Ironwood」は、前世代のTrillium(第6世代)と比較して、訓練と推論の両ワークロードで4倍以上の性能向上を実現した。
第5世代との比較では実に10倍の性能改善を達成しており、Google史上最強かつ最もエネルギー効率の高いカスタムチップだ。単体チップの計算能力は、FP8精度で4614TFLOPSに達する。これはNVIDIAの最新GB200(4856TFLOPS)に迫る水準であり、前世代H100(1979TFLOPS)の2倍以上の性能を実現している。
だが、Ironwoodの真価は単体性能だけではない。特筆されるのは、Googleが独自開発した高速接続技術「Inter-Chip Interconnect」により、最大9,216個のチップを単一の「スーパーポッド」として統合できる点だ。接続速度は9.6テラビット毎秒と、米国議会図書館の全蔵書を2秒以内でダウンロードできる帯域幅に相当する。9,216チップを束ねたスーパーポッドは、合計42.5エクサFLOPS(FP8)という途方もない計算能力を発揮する。
これは、NVIDIAの競合システムGB300 NVL72の0.36エクサFLOPSを100倍以上も上回る数値である。さらに、このスーパーポッドは合計1.77ペタバイトのHBM3Eメモリを共有でき、数千のプロセッサが同時に超高速メモリにアクセスできる設計となっている。Googleは「光回路スイッチング技術」を導入し、個別のチップに障害が発生してもミリ秒単位で自動的にデータ経路を再構築する仕組みを実現した。
「推論時代」の到来がNVIDIA包囲網を加速――学習から推論へのパワーシフト
Googleの巨額投資の背景には、AI業界全体を揺るがす構造変化がある。「学習」から「推論」への転換だ。「学習」とは、AIモデルに大量のデータを読み込ませて賢くする工程。一方「推論」は、完成したモデルを実際に動かして答えを出す工程を指す。
あなたがChatGPTに質問して回答を得るたび、その裏側では「推論」が走っている。Menlo Venturesの調査によれば、スタートアップ企業の74%が現在、計算リソースの大半を推論に費やしている。1年前は48%だった。大企業でも49%が計算資源の大部分を推論に振り向けている。この数値も前年の29%から急上昇している。投資会社Brookfieldは、2030年までにAI計算需要の75%が推論から生じると予測する。
この推論シフトが、チップ市場の勢力図を塗り替えつつある。学習には膨大なデータを一気に処理する「馬力」が必要で、NVIDIAのGPUが圧倒的な強みを持つ。しかし推論では、低遅延・高効率・コスト最適化が最優先される。ここに来て、GoogleのTPUなどの「推論に強いAIチップ」が競争力を発揮し始めているのだ。
モルガン・スタンレーは、推論フェーズが「訓練市場よりはるかに大きな機会」を生むと分析し、2025年から2028年にかけてデータセンターインフラへの投資が3兆ドルに達すると推計している。
日本企業が直面する選択――「NVIDIA囲い込み」vs「マルチベンダー戦略」の分岐点
では、日本企業はどう動くべきか。NVIDIAの牙城は依然として強固だ。同社はデータセンター向けAIチップ市場で90%超のシェアを握り続けている。その力の源泉は、チップそのものではなく「CUDA」と呼ばれるソフトウェア基盤にある。世界で400万人を超える開発者がCUDAに依存しており、15年以上にわたって蓄積されたコードとツールが「防護壁」として機能している。
あなたの会社がAI開発を始めるなら、NVIDIAを選ぶことで既存の膨大なコード資産やコミュニティの知見をすぐ活用できる。これがNVIDIAの圧倒的な強みだ。しかし、GoogleのTPUには別の強みがある。自社開発による低コスト構造、チップからソフトウェアまでの垂直統合による効率性、そしてオープンソースフレームワーク「vLLM」への対応でエコシステムを拡充している点だ。
Googleは2025年5月、分散推論システム「llm-d」をオープンソース化し、Red Hat、IBM Research、NVIDIA、CoreWeave、AMD、Cisco、Hugging Face、Intel、Lambda、Mistral AIといった業界リーダーが参画するコンソーシアムを立ち上げた。これにより、開発者はGPUとTPUを数行の設定変更だけで切り替えられるようになり、特定ベンダーへの依存度を下げられるようになった。日本市場では、クラウド支出が2025年の314億ドルから、年率17.3%という高成長を遂げ、2030年には698億ドルへと倍増すると見込まれている。
選択基準は明確だ。最先端モデルの開発を目指すならNVIDIA、推論最適化とコスト重視ならGoogleのTPUやAmazonのinferentia、リスク分散を優先するなら両方を併用する戦略が合理的といえるだろう。
文:細谷 元(Livit)