FlowTune Media

1枚のチップが皿ほどの大きさ — NVIDIAに挑むAI半導体Cerebrasが上場申請、時価総額5.6兆円を狙う

普通のAIチップはGPUだ。手のひらに載るサイズで、サーバーラックに何千枚も詰め込んで使う。

Cerebras Systemsのアプローチはまったく違う。同社のWSE-3(Wafer-Scale Engine 3)は、シリコンウェハー1枚をまるごと1つのチップとして使う。面積は46,225平方ミリメートル。文字通り、ディナープレートほどの大きさだ。4兆個のトランジスタに90万個のAI専用コアを集積し、NVIDIAの最上位GPU H100の58倍の面積を持つ。

この「非常識な」チップを作る会社が4月17日、NasdaqへのIPO申請を正式に発表した。ティッカーシンボルは「CBRS」。目標時価総額は350億ドル(約5.6兆円)、上場は5月中旬の見通しだ。

赤字から黒字へ — 数字で見るCerebrasの急成長

IPOの最大の説得材料は、財務の急改善にある。

2024年は売上2.9億ドルに対して4.85億ドルの純損失。ところが2025年には売上が5.1億ドル(前年比76%増)に伸び、純利益は8,790万ドルの黒字に転換した。AI半導体のスタートアップが1年で赤字脱却というのは、正直かなりの数字だ。

黒字化を後押ししたのは大型顧客の獲得である。

OpenAIとAWS — 2つの巨大契約

Cerebrasの事業基盤を支えるのは、2つの契約だ。

まず2026年1月のOpenAIとの提携。CerebrasがOpenAIに最大750メガワット分のWSE-3ベースの推論インフラを提供する契約で、金額は200億ドル超とされる。ChatGPTのリアルタイム応答速度をGPUベースの最大15倍に高速化するという触れ込みで、これはCerebras史上最大の案件だ。

次に2026年3月のAWSとの提携。Amazonのデータセンターに初めてCerebrasチップが導入されることが決まり、NVIDIAチップだけで構成されてきたハイパースケーラーのインフラに風穴を開けた。

筆者が注目しているのはAWSとの提携のほうだ。OpenAIとの契約は金額こそ巨大だが、特定顧客への依存度を高めるリスクがある。一方、AWSに採用されたということは、Cerebrasのチップがクラウドプラットフォーム上の「選択肢のひとつ」として汎用的に使われる道が開けたことを意味する。長期的にはこちらのほうが事業の安定性に寄与するだろう。

NVIDIAの独占は崩れるのか

率直に言って、NVIDIAの牙城はまだ盤石だ。データセンター向けAIチップ市場におけるNVIDIAのシェアは80%を超えており、CUDAという開発エコシステムの粘着力は絶大。開発者がNVIDIA以外のチップに移行するには、ソフトウェアスタックの書き換えという高いハードルがある。

Cerebrasの勝ち筋は「推論の経済性」にある。WSE-3はモデルの推論(学習済みモデルを使って結果を出力する処理)において、GPUベースの最大15倍の速度を実現するとされる。AIの利用が学習フェーズから推論フェーズに重心を移している今、この優位性が効く場面は増えていく。

ただし、Cerebrasには弱点もある。WSE-3は文字通りウェハー1枚のプロセッサなので、製造歩留まりが通常のチップより低い。価格も公表されていないが、単体で数千万円規模とも言われる。大量生産と価格競争力ではNVIDIAに遠く及ばないのが現状だ。

2度目の挑戦

実はCerebrasは2024年にもIPOを申請していた。しかしアブダビの投資ファンドG42からの出資をめぐる米政府の安全保障審査で手続きが停滞し、最終的に申請を取り下げた経緯がある。

今回の再挑戦では、OpenAIとAWSという「アメリカ企業」との大型契約を前面に出すことで、地政学リスクの懸念を払拭しようとしている。Morgan Stanley、Citigroup、Barclays、UBSが主幹事を務める布陣も、前回からの格上げだ。

AI半導体の世界でNVIDIA以外の選択肢が上場市場に出てくること自体に意味がある。Cerebrasの業績が上場後も成長を維持できるかは、OpenAIとの大型契約がどこまで実行されるかにかかっている。5月の上場がどう評価されるか、AI業界のインフラ層に関心がある人は注視しておきたい。

関連記事