DeepSeek V4が示す新しい勢力図 — 1兆パラメータ、Huaweiチップ、$0.30/Mトークンの衝撃

DeepSeekがまた市場を揺らす。今度は1兆パラメータだ。
2026年4月、中国のAIスタートアップDeepSeekが次世代モデル「DeepSeek V4」のリリースに向けた最終段階に入った。1兆パラメータのMixture-of-Experts(MoE)アーキテクチャ、100万トークンのコンテキストウィンドウ、テキスト・画像・動画のネイティブマルチモーダル生成。スペックだけ見れば、西側のフロンティアモデルと真正面から殴り合える水準だ。しかしこのモデルの本当のインパクトは、スペック表の外にある。
1兆パラメータの中身
数字だけ見ると圧倒的だが、MoEの仕組みを理解していないと誤解する。V4は総パラメータこそ1兆だが、1回の推論で実際にアクティブになるのは約370億パラメータに過ぎない。つまり、動作時の計算負荷は370Bモデル相当でありながら、1兆パラメータ分の「知識の引き出し」にアクセスできる。効率と性能を両立させる設計だ。
前世代のV3が128Kトークンだったコンテキストウィンドウは、V4で一気に100万トークンへ拡張された。「Engram」と呼ばれる条件付きメモリアーキテクチャにより、100万トークンスケールでのNeedle-in-a-Haystack(情報検索精度テスト)で97%の精度を主張している。長大なコードベースやドキュメントを丸ごと投入しても、必要な情報を正確に拾えるということだ。
マルチモーダル対応も特筆に値する。多くのモデルがテキストベースのLLMに後からビジョンモジュールを「ボルトオン」するのに対し、V4はプレトレーニング段階からテキスト・画像・動画を統合的に学習している。理論上、モダリティ間のより一貫した推論が可能になる。
ベンチマーク — 数字は出ている、ただし未検証
DeepSeekが公開した内部ベンチマークでは、SWE-bench Verifiedで80%超、HumanEvalで90%を記録したとされる。Claude Opus 4.6の80.8%、GPT-5.4の約80%と並ぶ水準だ。
ただし、ここには大きな留保がつく。これらはあくまで自己申告であり、独立した第三者による検証はまだ行われていない。OpenAIとAnthropicは公式のベンチマーク結果と価格をオープンに公開しているが、DeepSeek V4については正式なAPI価格ページすら4月時点で確認しづらい状況だ。数字を鵜呑みにするのは早い。
V4 Liteは3月9日にAPIで先行稼働しており、推論速度が30%向上したと報告されている。段階的なロールアウト戦略を取っているようだ。
$0.30/Mトークン — 価格破壊の第二波
仮にベンチマークが正確だとして、最も市場にインパクトを与えるのは価格だろう。入力$0.30/Mトークン、出力$0.50/Mトークン。
比較してみる。Claude Opus 4.6は入力$15/M、出力$75/M。GPT-5.4も同等の価格帯だ。DeepSeek V4はOpus比で入力コスト50分の1、出力コスト150分の1という計算になる。桁が2つ違う。
さらに、共有プロンプトプレフィックスの自動キャッシュ機能があり、キャッシュヒット時は$0.028/Mトークンまで下がる。大量のAPIコールを回すプロダクション環境では、この差は無視できない。
もちろん、「安い=正義」ではない。品質、信頼性、レイテンシ、そしてこの後触れるリスク要因を総合的に評価する必要がある。だが、コスト面だけを切り取れば、DeepSeekが2025年1月のR1で起こした価格破壊の第二波と言っていい。
Huaweiチップという地政学的転換点
V4の技術的スペック以上に、業界が注目しているのはハードウェアだ。DeepSeek V4はHuaweiの最新AIプロセッサ「Ascend 950 PR」上で動作する。FP8で1PFLOPS、FP4で2PFLOPSの演算性能を持ち、2TB/sのインターコネクト帯域を備える。NVIDIAのH100とH200の間に位置する性能と評価されている。
これが意味することは明確だ。中国産の半導体で、フロンティアクラスのAIモデルを訓練・推論できることが実証されつつある。米国の対中半導体規制はNVIDIA製チップの輸出を制限してきたが、DeepSeek V4はその規制の効力に疑問を投げかける存在になる。
Alibaba、ByteDance、Tencentといった中国テック大手がAscendチップを数十万単位で発注しており、Huaweiのチップ価格は約20%上昇したという報道もある。Huaweiは2026年にAscend 910Cの年間生産量を60万基に倍増させる計画だ。
ただし、現時点のAscend 950 PRは推論ワークロードが主な用途であり、訓練向けのバリアントは年内に到着予定とされている。CUDAエコシステムからの完全な独立にはまだ時間がかかる。
競合とのポジション比較
2026年4月時点のフロンティアモデル戦線を整理する。
Claude Opus 4.6はコーディングにおける多ファイル推論と意図理解で依然リードしている。SWE-bench 80.8%は検証済み。ただし価格は高い。
GPT-5.4は汎用推論タスク(ARC-AGI 2など)で強く、5段階の推論コントロールやComputer Useといった独自機能を持つ。
Gemini 3.1 Proは数学的推論でトップクラスを維持し、価格もOpusの約6分の1と手頃だ。
DeepSeek V4は多言語評価で実はトップスコアを叩き出しているほか、Apache 2.0ライセンスでのオープンソース公開を予定している。量子化すればRTX 4090×2台で推論可能とされ、ローカル実行の敷居も低い。
各モデルに明確な「得意領域」が出てきた。一強の時代ではなく、用途と予算に応じた使い分けが当たり前になりつつある。
懸念点 — 無視してはならないリスク
率直に書く。
検閲とバイアス: 中国政府の規制下にあるモデルである以上、政治的に敏感なトピックについて検閲が入る可能性は排除できない。天安門、台湾、チベットといった話題でどう振る舞うかは、ビジネス用途で使う際に無視できないリスクだ。
データプライバシー: 中国のデータセキュリティ法の下で、ユーザーデータがどう扱われるかについての透明性は十分とは言えない。エンタープライズでの採用にはこの点がボトルネックになるだろう。
ベンチマークの信頼性: 前述の通り、V4のスコアは未検証だ。過去にも中国のAIモデルがベンチマークと実運用のギャップを指摘されたケースはある。
地政学的リスク: 米中関係の悪化により、DeepSeekのAPIが特定の地域で突然利用不能になるシナリオも想定しておくべきだ。ビジネスクリティカルなシステムの基盤に据えるには、代替手段の確保が必須になる。
筆者の視点
DeepSeek V4は「技術的に面白い」だけのモデルではない。中国がAIの基盤レイヤー — チップからモデルまでのフルスタックを自前で構築できることを示す象徴的な存在だ。
個人的に最も注目しているのは、Huaweiチップ上での動作がどこまで安定するかだ。コンパイラ、オペレータ、通信ライブラリ、分散学習フレームワーク、推論フレームワーク。ソフトウェアスタック全体が成熟すれば、CUDAへの依存から脱却する道が見えてくる。それはNVIDIAの独占的な地位を揺るがすことを意味する。
一方で、オープンソースかつ低価格という美点が、検閲リスクやデータの不透明性と常にセットで語られる現状は、DeepSeekの宿命でもある。技術力は認めつつ、使いどころは冷静に見極めたい。
2025年1月にDeepSeek R1が市場を騒然とさせてから約1年。V4はその衝撃の続編であり、AI産業の多極化を加速させる一手だ。
関連記事
Llama 4完全ガイド — Scout・Maverick・Behemothの3モデル、どれを使うべきか
Scout、Maverick、Behemoth。 Metaが2025年4月にリリースしたLlama 4(https://ai.meta.com/blog/llama-4-multimodal-intelligence/)は、3つのモデルで構成されている。問題は、どれを使えばいいのか。そもそもBehemothは使える
GPT-5.4が来た — OpenAIの最新モデルは「速さ」と「深さ」を両取りしにきた
GPT-4oからGPT-5、そしてGPT-5.4。たった1年半で、OpenAIのフラッグシップモデルは3世代を駆け抜けた。2024年秋に「GPT-5はいつ出るんだ」と苛立っていた頃が遠い昔のようだ。2026年3月5日にリリースされたGPT-5.4は、前世代のGPT-5.2から約半年での更新。OpenAIの開発サイクル
Button — 元Apple社員がYCで作った「もうひとつのAIウェアラブル」は、Sweetpeaと何が違うのか
!Button Computer(/images/posts/button-yc-ai-wearable.png) OpenAIのSweetpeaが話題を独占している2026年のAIウェアラブル市場に、もうひとつのプレイヤーが現れた。 Button Computer。Y Combinator W26 Demo D