中国のAI推論チップが量産に入った — Ascend 950PRが崩しにかかっているもの
Huaweiは2020年代の前半、米国の輸出規制で実質的にハイエンドAI半導体の戦場から外されていた。Ascend 910B あたりの話を最後に、西側のAIインフラ担当者の頭からは "Ascend" という名前がだいぶ薄れていたと思う。

それが、2026年4月になって急に戻ってきた。
今月、量産が始まったのは Ascend 950PR。HuaweiのHiSilicon子会社が設計した、1.56 PFLOPS(FP4)性能のAI推論アクセラレータだ。この数字だけだと規模感が伝わりにくいので、読み手に近い比較で書くと、NVIDIA H20(中国市場向け規制対応モデル)の約2.8倍のFP4性能になる。さらに数週間以内に予定されているDeepSeek V4は、このチップ上で動くことが前提の設計になっていて、NVIDIAに一切依存しない初のフロンティアAIモデルになる可能性が高い。
ここ数年「中国のAIはNVIDIA依存が続く」という暗黙の前提で動いてきた読者にとっては、この事実だけで少し座り直す理由があるはずだ。
Ascend 950PRのスペックをざっくり押さえる
細かい仕様は中国のテック媒体にしか出ていない部分もあるが、主要な数字を並べておく。
- 演算性能: 1.56 PFLOPS(FP4)、約780 TFLOPS(FP8)
- メモリ: 独自規格 HiBL 1.0 を 112 GB 搭載。NVIDIA H20 の HBM3e 96 GB を上回る
- 用途: 大規模言語モデル推論、レコメンデーション、マルチモーダル推論に特化。学習用途は姉妹チップ Ascend 950T 側が担当する二本立て設計
- 量産スケジュール: 2026年4月から本格量産、2026年後半までに約75万ユニットの出荷計画
- 主要購入先: ByteDance(発注額ベースで約56億ドル)、Alibaba、Tencent
ポイントは FP4専用設計と独自HBM の2つだ。
FP4 は低精度推論の新しい定番になりつつあって、推論コストを下げつつ品質を維持する経済合理性でNVIDIA Blackwell世代も一気にFP4へシフトしている。Ascend 950PRはそのFP4を狙い撃ちにした設計で、学習用のH100 / B200 の延長線上ではなく、「推論だけに全振り」した形で性能効率を稼いでいる。その結果としての H20 比2.8倍という数字だ。
独自HBMの採用は政治的な意味合いも大きい。HBMの主要供給元は SK hynix・Samsung・Micronの3社で、米国の対中半導体制裁でこれら先端HBMの中国向け出荷が厳しく制限されているのはご存じのとおり。Huaweiは CXMT(中国メーカー)と共同開発した HiBL 1.0 という独自規格の高帯域メモリを Ascend 950PR に積むことで、制裁の壁をハード設計の中からつぶしにかかっている。この一点だけでも「量産できるのか」が問われ続けていた部分で、2026年4月にそれが現実になったことの意味は大きい。
なぜ今ByteDanceが56億ドル発注したのか
ハイエンド推論チップにおいて、「誰が買うか」はしばしば性能より重要な情報になる。
ByteDance は DeepSeek V4 の主要な運用先になる予定で、さらに自社のDoubao / TikTokの推薦モデルの推論基盤としても Ascend 950PR を大量投入する計画を立てている。発注規模は約56億ドル、チップ換算で数十万ユニット級。アリババも同等規模の発注を入れていて、Tencentも追随中だ。中国 AI 各社の推論トークン消費量は既に月次で数十兆トークン級に達していて、NVIDIAの供給では物理的に追いつかない水準になりつつある。
しかも、中国のAI企業は対米輸出規制の影響で NVIDIA の最新世代(Blackwell)へのアクセスが限られているので、H20 世代で粘るか、Huawei に乗り換えるかの二択になっている。ByteDance の規模で言えば後者にベットする経済合理性は十分にあり、そして CUDA 互換のソフトウェアスタック が提供されていることが、移行コストを一気に下げた最後のピースだ。
Huaweiは CANN(Compute Architecture for Neural Networks)というフレームワークで CUDA と似たAPIを提供していて、PyTorchやvLLMから透明に使える仕掛けになっている。もちろん完全互換ではなく、カーネルレベルで手を入れる必要がある箇所も残っているが、「CUDAを一行も変えずに動く」 というマーケティングコピーが事実として通用するレベルには来ている。これがなければ、いくらチップが速くても中国以外への展開は難しかった。
DeepSeek V4 と並ぶ "もう1つの橋"
Huaweiにとって最大の広告塔は、間違いなく DeepSeek V4 だ。
1兆パラメータMoEのV4は、Ascend 950PR上での動作を前提にアーキテクチャが設計されている。逆に言えば、DeepSeekは V4 を NVIDIA B200 / H100 で動かすための最適化を後回しにしている。DeepSeek が明確に NVIDIA への早期提供を拒否したという報道まであり、事実上のアンチ NVIDIA 戦略を取っている。
この構造は業界全体にじわじわ効いてくる。もし V4 がベンチマーク上で GPT-5.4 や Claude Sonnet 4.6 に並ぶ性能を示したら、「トップ性能のオープンモデルが、NVIDIA なしで動く」という先例が確立する。この事実は中国以外のAI投資家にとっても地殻変動で、これまで "AI株 = NVIDIA株" で回ってきたマクロの物語の前提が変わり得る。
筆者が注目しているのは、中国以外の国が Huawei のチップを買えるようになるかどうかだ。米国の対中規制は主に輸出を止めるものだが、Huaweiはエンティティリストに載っているので、西側の大企業が公然と Ascend を採用する政治リスクは依然として高い。その一方で、中東・中央アジア・東南アジアあたりでは Huawei の通信インフラが既に広く入っていて、AIインフラでも同じルートでの導入は難しくない。中東のAIハブ戦略と合わせると、2026年後半には「Ascend ベースで動くソブリンAI」 が複数国から出てくる可能性がある。
日本から見ておくべきポイント
日本のインフラ担当者や LLM 利用者にとって、この話はどう響くか。
ひとつは、AIインフラの選択肢に「中国発の推論スタック」が入り始めている事実 を頭の片隅に置いておくこと。現状では日本企業が Ascend をメインに採用するシナリオは考えにくいが、AWS・Azure・Google Cloudが提供する推論料金の下限 は中国側の設備投資に引きずられる可能性があり、結果として日本のSaaS各社が使える推論APIの価格にも効いてくる。
ふたつめは、CUDA を前提に書かれたインフラコードが "ある種の負債" に変わり始めている ことだ。今まではCUDA前提で書けば世界中のどの GPU クラウドにも簡単に乗せられたが、これからは「AMDのROCm、Apple Silicon、Ascend CANN」のそれぞれへの抽象化がそれなりに意味を持ってくる。vLLM や SGLang のような推論エンジンがそのレイヤーを担ってくれるので、ほとんどのユーザーには直接の影響はない。ただ、自社でインフラを組む会社であれば、「特定ベンダーに縛られない推論スタック」 の設計を今のうちに練っておく価値はある。
みっつめは、地政学の話だ。Huaweiがこの規模のAI推論量産に成功したという事実は、米国の半導体制裁が "遅らせたが止められなかった" ことを意味する。これから先、AI用半導体の開発競争は米中の "垂直統合対決" の色を濃くしていく。中国側は設計・製造・メモリ・ソフトをほぼ自前で揃える方向に進んでいて、米国側はASML・TSMC・NVIDIAという分業の最強連合で応じている。この構図のどちらが有利なのかは簡単には言えないが、「単一のテクノロジースタックに世界のAIが集約される時代」は完全に終わったと見るべきだと思う。
2026年後半に何を見るべきか
Ascend 950PR が今月量産に入ったからといって、来週のAI業務が即変わるわけではない。けれど、次の数ヶ月で確かめるべきことはいくつかある。
- DeepSeek V4 が Ascend 上でどの程度のスループット(tok/s)と価格($/M tokens)を出せるか。特に $0.30/M tokens というV4の目標価格が Ascend 基盤で実現するのかどうか
- ByteDance・Alibaba・Tencent 以外の海外顧客への出荷が始まるかどうか。中東・東南アジアからのソブリンAI案件がどこまで動くか
- Huawei の次世代(Ascend 960 系)のロードマップがどの時点でリークされるか
- vLLM / SGLang / llama.cpp などのオープンソース推論エンジンが、CANN バックエンドをどのくらい真剣にメンテしていくか
Ascend 950PR のインパクトは、単独では一本のチップの話に過ぎない。だがそれを触媒にして、AI産業のサプライチェーン全体が "分岐" していくきっかけになりうる。いちユーザーとしては静かにトレンドを追っていれば十分だが、インフラ担当者としてはここが "見ないふり" できない境目だ、というのが2026年4月時点の筆者の評価だ。
関連記事
スタンフォードが400ページの「AIの今」を出した — 2026年版AI Indexで見えた7つの変化
スタンフォードHAIが2026年4月13日に公開した最新AI Indexレポートを読み解く。米中性能差ほぼ消滅、推論コスト280倍減、Q1投資2858億ドルなど、業界の輪郭を変える数字を整理する。
家にある古いパソコンを3台つなげば、大きなAIモデルが動く — mesh-llmの仕組み
Jack Dorsey率いるBlockのエンジニアが公開したOSSプロジェクトmesh-llmを解説。家のPCやMacのGPUをピアツーピアで束ね、単独では動かせない大規模モデルを分散実行する仕組みと使い所。
NVIDIA Agent Toolkit — 「Nemotron 3 Super 120B」とOpenShellで仕掛けるエンタープライズエージェントの標準化
NVIDIAがGTC 2026で発表したOSSエージェント基盤Agent Toolkitを解説。Nemotron 3 Super 120B、OpenShell、AI-Q、cuOptの4要素と17社の採用背景を整理する。