INDEX
マイクロソフトがAIコンピューティングに数十億ドルを投資
ChatGPT人気を背景として、「ジェネレーティブAI」への関心が急速に高まり、開発投資の動きが加速している。ジェネレーティブAI開発において、特に注目されるのが「AIコンピューティング」分野だ。
これはAI開発に特化したハードウェアやソフトウェアなどのインフラを指す言葉。ジェネレーティブAIの開発加速に伴い、AIコンピューティング分野への投資も急拡大している。
たとえば、マイクロソフトは、AIコンピューティングパワー確保を目的に、NVIDIAなどが投資するスタートアップCoreWeaveとのクラウドコンピューティングインフラ契約において、数十億ドル規模の支出に同意したことが明らかとなった。このニュースは、2023年6月1日にCNBCが複数の関係筋の話として報じている。
2017年に設立されたCoreWeaveは、ジェネレーティブAIの開発・運用で利用されるNVIDIAのグラフィックスカード(GPU)へのアクセスを提供するスタートアップ。NVIDIAが1億ドルを投資したことで注目された。2023年5月末にはシリーズBラウンドで、計4億2100万ドルの大型資金調達を実施、評価額は20億ドルを超えたといわれる。
CNBCは情報筋の話として、マイクロソフトは、OpenAIのChatGPT運営での適切なコンピューティングパワー確保を目的に、CoreWeaveとの契約を締結したと伝えている。
ジェネレーティブAI開発・運営のコスト
ジェネレーティブAI(大規模言語モデル)の開発・運営では、大量のGPUが必要となる。GPUを利用するには、自前で用意するか、他社のGPUリソースにアクセスするか、大きく2つの選択肢がある。
前者に関する直近事例としては、イーロン・マスク氏の例が挙げられる。2023年4月頃、マスク氏がAI企業を設立するとの報道があったが、これに関連して、マスク氏は約1万個のGPUを購入したといわれているのだ。
GPUを自前で用意する場合、様々な用途に素早く対応できるなど高い自由度が利点の1つとなる。しかし、自前購入に付随する問題も無視できない。現在、大きな課題となっているのがコストの問題だ。
ジェネレーティブAIの開発・運営で最も利用されているといわれるのが、NVIDIAが2020年にリリースしたGPUモデル「A100」。1つあたりの価格は1万ドルほどだが、システムとして利用する場合、8つのA100を搭載した「DGX A100」として利用され、その価格は1台20万ドルほどになる。このコストを単純計算すると、A100を80個利用する場合200万ドル、800個で2000万ドル、8000個で2億ドルと膨れ上がっていく。
TrendForceは、ChatGPTの開発から商業化までに、A100換算で約3万以上のGPUが必要と推計している。GPU1つあたりのコストを1万ドルとする場合、そのコストは計3億ドル(約423億円)、またDGX A100で計算すると、7.5億ドル(1000億円)となる。
GPUリソースの提供するCoreWeave
CoreWeaveは、GPUを自前で購入するコストを避けつつ、GPUを活用したい企業にそのリソースをクラウド上で提供することで収益を上げている。
ジェネレーティブAIへの関心の高まりとともに、GPU需要が増加しているが、同社サービスに対する需要も右肩上がりであるという。CNBCは、CoreWeaveのマイケル・イントレイターCEOが、2022年から2023年にかけて、同社の収益が数倍に拡大したと発言したことを伝えている。
CoreWeaveの主力サービスの1つは、NVIDIAのA100。同GPUは、アマゾン、グーグル、マイクロソフトのクラウドサービスでも利用することが可能であるが、同社は既存のクラウドサービスに比べ、低コストで提供できることが強みであると主張。CoreWeaveのウェブサイトでは、レガシークラウドプロバイダに比べ、同社サービスは最大35倍高速で、かつ80%低いコストで利用可能だと謳っている。
AI開発、データ分析などでは、A100を推奨しつつ、VFXなどのビジュアルコンピューティングでは費用対効果が高いとしてA40を勧めている。
GPUは、AI開発のほか、メタバースや空間コンピューティングでも重要となるハードウェアインフラだ。空間コンピューティングは、アップルが最近発表したVision Proとともに提唱しているコンセプト。メタバースと空間コンピューティングともに、コンピューターグラフィックス(CG)のリアルタイムレンダリング技術が重要となるが、ここでもGPUが不可欠な存在となる。今後ジェネレーティブAIだけでなく、メタバースや空間コンピューティングの文脈でもCoreWeaveは注目を集める可能性がある。
ソフトウェアの改善やAIモデルの最適化によるAIコンピューティング強化
AIコンピューティング能力を高めるには、GPUの数やアクセスの規模を拡大することが必須となるが、手段はこれに限定されるものではない。
ハードウェアではなく、ソフトウェアを改善することで、AIコンピューティング能力を高める取り組みも進められている。
CoreWeaveの競合と目される英Graphcoreは、独自に開発したソフトウェアPoplarを通じたAIコンピューティング能力強化の取り組みを行っている。
Poplarは、PyTorchやTensorFlowなどAIフレームワークで書かれたプログラムを効率的なマシンコードに変換するソフトウェアだ。
Graphcoreのナイジェル・トーンCEOは、ZDNETの取材で、AI開発においてハードウェアが重要であるとの認識を示しつつ、それはあくまでサポート的な存在であり、AI開発の未来はソフトウェアの良し悪しにかかっているという見解を述べている。また、GPT-3などの大規模言語モデルの開発では、データ間の接続が重要であるが、実際のところメモリへのデータの出し入れがボトルネックになっていると指摘。強力なハードウェア(GPU)システムを構築したとしても、ソフトウェアでこうしたボルトネックを解決しないことには、AIコンピューティング能力は向上しないという見解だ。
この点、グーグルも大規模言語モデルの規模を縮小しつつ、パフォーマンスを改善する方向でAI開発を行っており、ハードウェアに依拠しないアプローチを模索している。
AIコンピューティング分野では今後どのような投資開発が進められるのか、ハードウェア、ソフトウェアの両面での展開が注目されるところだ。
文:細谷元(Livit)