FlowTune Media

3.5ギガワット、2031年まで — Anthropicが静かに組み始めた「反NVIDIA同盟」の中身

数字は2つある。3.5GW2031年

どちらもAnthropicが4月6日に発表したGoogle/Broadcom拡張契約に出てくる数字だ。3.5ギガワットという規模は、一般家庭にして数百万戸分の電力に相当する。それだけの電力を消費するTPU(Tensor Processing Unit)を、Broadcomが設計し、2027年から順次稼働させ、2031年まで供給し続ける。

この数字を並べられると、個人的には「NVIDIAの相対的な影響力が地味に削られている瞬間」だと感じた。Anthropicの30B ARR達成のニュースは別記事で触れたが、そちらが売上の話なら、今回のTPU契約はそれを支える足回りの話だ。そして足回りの設計は、業界構造を静かに書き換える。

3.5GWは、いまのAI業界の常識では異常値

まず規模の感覚を揃えておきたい。

現時点で公表されているハイパースケーラーのGPUクラスタで、単一の契約として最大級のものが数百メガワット〜1ギガワット規模だ。OpenAIがOracleと組んだStargateの第一弾が1GW前後、xAIのColossus 2は計画値で1.5GW。そこにAnthropic単独で3.5GWの追加が入ってくる。これはすでに稼働中の1GW(2025年10月発表分)に上乗せされる形なので、トータルでは4.5GWに達する。

4.5GWのAIコンピュートを専有する単一顧客は、2026年時点で世界でほぼ存在しない。Metaが自社向けに積んでいるGPU量は近い数字になるが、あれは社内需要だ。Anthropicは外部顧客にモデルを売るためにこの量を積む。ここのスケール感を飲み込めるかどうかで、今回の契約の重みが変わる。

「Google TPU」なのに「Broadcom製」のねじれ

今回の契約で面白いのは、Broadcomが製造するのはGoogleが設計したTPUである、という点だ。正確に言うと、BroadcomがGoogleと共同で次世代TPUを設計・製造し、Anthropicに供給する。さらにBroadcomはGoogleの将来世代のTPUを2031年まで設計・供給する義務を負っている。

この契約構造が何を意味するかというと、Googleは独自シリコンの開発リソースをBroadcom側に外だしし、Anthropicは物理的な供給責任をBroadcomに握らせているということだ。3者の関係を整理するとこうなる。

役割 担当
モデル設計・運用 Anthropic
TPUアーキテクチャ設計の主体 Google
TPUの物理実装・共同設計・出荷 Broadcom
コロケーション・電力 Google Cloud(中心)/一部の運用パートナー

3社が絡む契約は分業としては合理的だが、リスクがどこに集中するのかを読むのは難しい。BroadcomはSECに提出した開示資料の中で「この契約の消費量はAnthropicの商業的成功に依存する」と明記している。要するに「Anthropicが売れなければうちも売れません」というリスク条項を、Broadcomは正直に書いたわけだ。

アナリストの推計では、Broadcomが2026年にAnthropicから受け取るAI関連売上は約210億ドル、2027年には420億ドル。同社全体のAIセグメント売上の太い柱が、事実上Anthropic一社に預けられる格好になる。

なぜNVIDIAではないのか

ここで素朴な疑問として浮かぶのが、「同じ金額をNVIDIAに払えばH100/B200で3.5GW分賄えるのでは?」という点だ。実際、OpenAIはその道を取っている。Microsoft/Oracle経由でNVIDIAのGPUを調達し、自社モデル全てを動かしている。

Anthropicがその道を取らない理由は、複数ある。個人的には3つの軸で整理すると見通しが良い。

1. コスト構造。TPUはASICに近い特化ハードウェアで、行列積演算あたりの電力効率がGPUより高い。Claudeのような大規模モデルのファインチューニングや推論ワークロードにおいては、単位計算あたりの運用コストが15〜30%低いと言われている。数字は公表されていないが、3.5GWという規模になると、15%の差でも年間コストに直接数十億ドルのインパクトが出る。

2. 設計影響力。NVIDIAのGPUは「最大公約数」的に全てのAIワークロードで動くよう最適化されているため、Anthropicの特定モデル向けに最適化する余地は小さい。一方、Googleの次世代TPUはAnthropicとの共同ロードマップを織り込める余地がある。ある意味、AnthropicはGoogleの半導体ロードマップに対して「発言権を持つ顧客」になる。

3. 供給の安定性。NVIDIAの最新世代は世界中のハイパースケーラーが取り合う。B200/GB300クラスは発注しても1年以上待つのが常識になっている。Broadcom経由で独自設計のTPUを押さえれば、少なくとも奪い合いからは降りられる。

3つのうち一番効くのはおそらく3だろうと筆者は見ている。コストは後からでも最適化できるが、物量の確保は先行投資でしか動かない

反NVIDIA同盟と呼ぶべきか

ここまで書くと「反NVIDIA同盟が結成された」と見出しを打ちたくなるが、現実はもう少し複雑だ。Anthropicは今回のBroadcom契約と並行して、AWSとのTrainium契約も維持している。つまりNVIDIA・Google TPU・AWS Trainiumの3系統を同時に走らせる「マルチシリコン」戦略を取っている。

これは表面的には「どこにも依存しない」賢い戦略に見えるが、実装面ではコストが高い。各系統でモデルを最適化し、デプロイパイプラインを別々に組む必要がある。NVIDIA一択のOpenAIと比較すると、Anthropicは開発運用の手間を余計に背負っている。

それでもこの道を選ぶ理由は、単一ベンダー依存のリスクが、運用の複雑さよりも大きいと判断しているからだ。この判断は、過去18ヶ月のGPU供給不足と価格高騰を見てきた経営判断として、現時点では十分に正当化できる。

ただし、反NVIDIA同盟と呼ぶには弱い。Googleも実はNVIDIAのGPUをCloud経由で販売している。Broadcomは様々なベンダー向けにシリコンを作っている。明確に「NVIDIAを排除する」という意思表示があるわけではない。むしろNVIDIAを「買い続ける」こと自体をリスクと考える顧客が増えた、という構造変化として捉えるほうが正しい。

これが意味するもの

今回の契約が業界に与える影響を、いくつか整理してみる。

NVIDIAの「値決め力」が徐々に削られる。AnthropicのようなフロンティアAI企業が代替シリコンに本気で移ると、NVIDIAは価格交渉の場で「余剰在庫を抱える」リスクを初めて意識する必要が出てくる。BlackwellやRubin世代は依然として需要超過だが、2028〜2029年頃には状況が変わり始める可能性がある。

カスタムシリコン設計能力が戦略資産になる。Broadcomの株価は発表後に大きく動いた。ファブレス設計会社としての存在感が、AIインフラの中核に置き換わっていく流れが加速している。同じ構造をGoogle以外のハイパースケーラーも追う気配があり、Marvell、MediaTekあたりが次のターゲットになりそうだ。

AnthropicがClaude Mythosクラスのモデルを量産できる前提が整うClaude Mythos previewは10兆パラメータ級のモデルで、現状は限定アクセスだ。これを広く提供するには、推論コストを大幅に下げる必要がある。TPUの電力効率と物量で、その前提条件が少しずつ埋まり始めている。

最後の点が、ユーザーにとっては一番効く話だろう。契約書の数字そのものよりも、それがClaudeの値段や利用制限に跳ね返るまでのタイムラグを読むことのほうが、エンドユーザーには価値がある。現状のアナリストの見立てでは、2027年後半にClaudeの推論価格が段階的に下がる可能性が高い。そうなれば、今のAPI料金を前提に「高いから使わない」と判断していたワークロードが、一気に経済合理性に乗る場面が出てくるかもしれない。

契約書の3.5GWは、遠い話のように見える。でもそれが解きほぐされて下流に流れてきたとき、ターミナルでclaudeと叩くあなたの手元の請求書が変わる。そういう話だ。

関連記事