FlowTune Media

ClaudeのGPUにCoreWeaveが加わった — Anthropicが48時間で2つ目のインフラ契約を結んだ理由

48時間のあいだに、GPUクラウドの世界地図が静かに書き換わった。

4月9日、CoreWeaveはMetaとの既存契約を210億ドル規模で拡張したと発表。その翌日4月10日、同じCoreWeaveがAnthropicと複数年のGPUクラウド契約を結んだと公表した。1社のAIインフラ企業が、2日連続でフロンティアラボ級の契約をアナウンスしたのは2026年に入って初めてのことだ。

CoreWeaveという名前を初めて聞く読者のために補足しておくと、同社はNVIDIA GPUのレンタルに特化したクラウドプロバイダだ。AWS・Google Cloud・Azureのようにあらゆるサービスを揃えるのではなく、ひたすらH100やBlackwell、そしてこの後触れる次世代Vera Rubinを大量に積んで、AI企業にだけ貸す。ニューヨーク州ロズリンに本社を置き、2024年に上場している。

株価は発表当日に11〜13%跳ね上がった。だがこの記事で注目したいのは株価ではなく、Anthropicがなぜいまこのタイミングでもう1つの柱を立てたのかという話だ。

Meta拡張の翌日に出てきた意味

CoreWeave側の視点で見ると、この2件は「契約更新」と「新規顧客」という別物だ。Metaは既存顧客との拡張、Anthropicは新規参入。

だがAnthropic側の視点で並べると、見えてくる景色は違う。

同社は2025年後半から、コンピュート供給を単一ベンダーに依存しない構造へ露骨に舵を切っている。4月6日にはGoogle/Broadcomとの3.5GW TPU契約を2031年まで延長する合意を発表した。その4日後にCoreWeaveとの契約が来た。1週間で2つのメジャー契約、しかも異なるシリコン(Google TPU と NVIDIA GPU)で組むという、明確に冗長化された動きだ。

同社の年間売上ランレートは2026年4月時点で約300億ドルに達している。年末9月時点の90億ドルから半年足らずで3倍以上。この成長速度だと、1社のクラウドから借りる枠では単純に追いつかない。コンピュートが足りなければ有料ユーザーの品質が落ち、それが解約に直結する。売上300億ドルを安定運用するには、クラウドを3〜4本束ねて1本の太いパイプにする以外に現実的な選択肢がない。

契約の中身を読む

公開されている事実は意外と少ない。

  • 契約期間: 複数年(具体年数は非開示)
  • 初期ステージ: 「フェーズドインフラロールアウト」と明記
  • チップ: NVIDIA製。次世代の「Vera Rubin」アーキテクチャを2026年後半から採用する見込み
  • 契約金額: 非開示
  • 稼働開始: 2026年後半以降

Vera RubinというのはNVIDIAがBlackwellの次にロードマップに置いているアーキテクチャで、2026年下半期から量産出荷が始まる予定の最新世代だ。BlackwellのB200/GB200が現行ハイエンドなので、Anthropicは今回の契約で1〜1.5世代先のGPUを早期に押さえたことになる。CoreWeaveは2025年末から新世代GPU向けのデータセンター拡張を進めており、この供給力がAnthropicを口説けた決定打だった可能性が高い。

金額が非開示なのは残念だが、状況証拠は揃っている。CoreWeaveの契約受注残高(backlog)は今回のディール発表後で$66.8Bに膨れ上がった。直近で追加された大型契約はMetaの210億ドル拡張、OpenAIとの既存契約の延伸、そしてAnthropic。差分から逆算すると、Anthropic契約は数十億ドル規模の可能性が濃厚で、「CoreWeaveの顧客上位3社が全員フロンティアラボ」という前代未聞の構造になった。

ちなみに今回のディールで、世界トップ10のAIモデル提供企業のうち9社がCoreWeaveを利用する構図が完成した。残る1社が誰なのかは公式発表されていないが、常識的に考えるとGoogleかMeta以外でCoreWeaveを使わない大手は存在しないに等しい(Googleは自社TPUで、Metaは自社GPUクラスタで大半をまかなっているため、推測は容易)。

Anthropicの「マルチクラウド戦略」の全容

ここで一度、Anthropicが2025年以降に積み上げてきたコンピュート契約を時系列で整理しておきたい。

時期 パートナー 内容
2023 Google Cloud 初期のTPU契約
2024 Amazon (AWS Trainium) 数十億ドル規模の出資とコンピュート提供
2025後半 Google/Broadcom 1GW規模のTPU契約(第1弾)
2026/04/06 Google/Broadcom TPU拡張、3.5GW追加で累計4.5GWに
2026/04/10 CoreWeave NVIDIA GPU、Vera Rubin込み複数年

Google TPU、AWS Trainium、そしてCoreWeave経由のNVIDIA GPU。1社で3つの異なるシリコンスタックを並行運用するのはClaudeがほぼ唯一だ。OpenAIはMicrosoft Azure(NVIDIA中心)+ Oracle(Stargate、NVIDIA中心)でほぼNVIDIA一色。GoogleとMetaは自社シリコンがメイン。xAIもNVIDIA中心。

この「3種盛り」には技術的な重さがある。モデルの推論コードをTPUでもTrainiumでもNVIDIAでも動かせるように保つ必要があり、フレームワーク(JAX、PyTorch、自社抽象レイヤー)を全部手入れし続けなければならない。ただし重さの見返りに、1つのベンダーで事故が起きたときの耐障害性と、交渉力の分散が手に入る。このトレードオフをAnthropicは明らかに「引き受ける」と決めた。

個人的には、この判断はClaude Code、Claude Cowork、Advisor toolといった最近の製品群が全部一貫した品質を保っていることと関係があると見ている。製品のSLAを守るには、インフラのSLAが先に守られている必要がある。そのためにベンダー1社に握られるのは、ビジネス規模300億ドルのAnthropicにとってはリスクが大きすぎる、ということだろう。

日本のユーザーに何が返ってくるか

この契約は一見するとインフラ企業同士の話で、Claude Proを課金している日本のユーザーには遠い世界に感じられるかもしれない。だが実際には、次の3つの形で効いてくる可能性が高い。

1つめ。応答速度の底上げ。 今のClaudeは時間帯によってレスポンスが遅くなったり、画像添付時に待ち時間が伸びたりする現象が散発的にある。これは多くの場合「コンピュートが足りない」のが原因だ。Vera RubinクラスのGPUが2026年後半から本番投入されれば、特に長文コンテキスト処理マルチモーダル処理の余裕が増える。

2つめ。レート制限の緩和。 API利用者にとっては、トークンレートやリクエストレートの上限がいつ引き上がるかは死活問題だ。過去の傾向を見ると、Anthropicはコンピュートキャパシティの大型拡張アナウンスから数ヶ月遅れでレート上限を緩めてくる。CoreWeaveの初期ロールアウトが2026年後半という話なので、2027年初頭にレート引き上げが来ると期待して大きく外さない気がする。

3つめ。新機能のベータ枠拡大。 advisor toolのようなbeta機能や、Claude Cowork、Managed Agentsのような重い機能は、しばしば「キャパシティが限られているためwaitlist」という形で絞られる。追加コンピュートが入ってくれば、これらbeta機能へのアクセス枠も広がる。日本の開発者コミュニティは英語圏よりbeta招待の遅れを感じやすい層なので、ここの恩恵は地味に大きい。

CoreWeaveという会社の立ち位置

最後に、CoreWeave自体をもう少し掘っておきたい。同社が面白いのは、AWSやAzureのような汎用クラウドとしてではなく、AI専業のGPUレンタル屋として成立しているところだ。Kubernetesもオブジェクトストレージもネットワークも揃えているが、セールスポイントは一貫して「最新世代のNVIDIA GPUを、他社より早く、大量に、専用線で渡す」に絞り込まれている。

このフォーカスが2025年以降のAIインフラ需要の急増とかみ合い、結果として受注残高$66.8Bという数字につながっている。参考までに、AWSの年間AI関連売上が2026年予測で約800億ドル程度と言われているので、受注残だけでその8割に迫る規模だ。純粋なインフラ単機能でこの数字が成立するのは、いまのAIブームの特殊性を象徴している。

ただし、CoreWeaveにもリスクはある。同社は大量のGPU購入と施設建設を債務で賄っている構造で、2026年時点で多額の社債と担保付きローンを抱えている。AIブームが減速した瞬間、レバレッジが逆回転する。Anthropic契約のような複数年の固定収入はこのリスクを大きく和らげる効果があり、今回のディールがCoreWeaveの財務信用にプラスに働く理由でもある。

個人的な感触を最後に書いておくと、今回の契約は「Claude使ってる人にとっての追い風」以上に「AIインフラ業界がNVIDIA一色からマルチシリコン時代に入りつつある証拠」として読むのが正しい気がする。Google TPU、AWS Trainium、そしてNVIDIA。フロンティアラボが3本立ての構造を維持する時代が、Anthropic発で確立しつつある。次にこのパターンを真似するのはどこか、というのが当面の業界のウォッチポイントだ。

公式発表はCoreWeave Investor Relationsで確認できる。続報が出たら追記する。

関連記事