DeepSeek V4が「GPT-5.5の97%引き」で殴り込んできた — ProとFlashの使い分けガイド
GPT-5.5の97%引き。
この数字を最初に見たとき、正直「また中国モデルの誇大宣伝か」と思った。だがDeepSeek V4の料金表を見てみると、誇張ではなかった。V4 Flashの入力料金は$0.14/100万トークン。GPT-5.5の数十分の一だ。

4月24日にプレビュー公開されたDeepSeek V4は、ProとFlashの2モデル構成で、どちらもHugging FaceでMITライセンス公開されている。100万トークンのコンテキストウィンドウ。そしてコーディング領域ではフロンティアモデルに肉薄する性能を持つ。
ProとFlashの違い
DeepSeek V4は用途に応じて2つのモデルを選べる。
V4 Pro — フラッグシップ。総パラメータ1.6T、アクティブ49BのMoE。ハイブリッドCSA+HCAアテンションにより、100万トークンのコンテキストでも推論FLOPsをV3.2比27%に抑える。コーディングや複雑な推論タスクに向く。
V4 Flash — 軽量版。総パラメータ284B、アクティブ13B。性能はProに劣るが、圧倒的に安い。日常的なチャットや軽めのコード生成、バッチ処理に最適。
料金を並べてみる
5月末まで75%引きのプロモーション価格が適用されている。正規料金と併記する。
| モデル | 入力(キャッシュヒット) | 入力(キャッシュミス) | 出力 |
|---|---|---|---|
| V4 Pro(プロモ) | $0.004/MTok | $0.435/MTok | $0.87/MTok |
| V4 Pro(正規) | $0.015/MTok | $1.74/MTok | $3.48/MTok |
| V4 Flash(プロモ) | $0.003/MTok | $0.14/MTok | $0.28/MTok |
比較のために他モデルの参考料金も書いておく。
| モデル | 入力 | 出力 |
|---|---|---|
| GPT-5.5 | ~$5.00/MTok | ~$15.00/MTok |
| Claude Opus 4.7 | $15.00/MTok | $75.00/MTok |
| Kimi K2.6 | $0.60/MTok | $2.50/MTok |
V4 Flashのプロモ価格は文字通り桁が違う。入力$0.14はKimi K2.6の約4分の1、GPT-5.5の約36分の1だ。
性能は料金に見合うのか
安いだけでは意味がない。ベンチマークを見る。
| ベンチマーク | V4 Pro | GPT-5.5 | Claude Opus 4.7 |
|---|---|---|---|
| LiveCodeBench | 93.5 | — | — |
| Codeforces ELO | 3,206 | 3,168 | — |
| SWE-bench Verified | 80.6% | — | 80.8% |
V4 ProのCodeforces ELOはGPT-5.5を上回り、SWE-bench VerifiedではClaude Opus 4.7とほぼ互角。NISTの評価レポートでは「全体的なフロンティアとの差は約8ヶ月だが、コーディング領域ではリードしている」と評されている。
筆者の印象として、コーディング用途に限ればV4 ProはGPT-5.5やClaude Opus 4.7の代替として十分に機能する。ただし汎用的な推論やクリエイティブな文章生成では、まだフロンティアモデルとの差がある。
3週間で3モデル——DeepSeekの攻め方
4月24日にV4 Pro/Flashプレビュー、4月27日に追加の改良版リリース。3週間足らずで主要モデルを立て続けに出すペースは異常だ。
この矢継ぎ早のリリースには戦略的な意図が見える。DeepSeekはV3シリーズですでに「安くて実用的なオープンモデル」のポジションを確立した。V4ではそこにフロンティア級の性能を加えて、**「安い割に」ではなく「安いのに最強クラス」**に昇格しようとしている。
同時期にKimi K2.6(SWE-Bench Pro 58.6%)、Qwen 3.6、GLM-5.1など中国勢が一斉にリリースしており、オープンモデルの競争が急激に激化している。この競争圧力がさらに料金を押し下げるなら、ユーザーにとっては歓迎すべき展開だ。
使い分けの目安
迷ったらこう考えるのが現実的だ。
V4 Proを選ぶ場面: 大規模リファクタリング、複雑なデバッグ、長いコンテキストが必要な分析。Codeforces ELO 3,206が示す通り、難しいコーディング問題への対応力はフロンティアモデル級。「この問題、GPT-5.5に投げる代わりにV4 Proに投げてみるか」という使い方が一番リターンが大きい。
V4 Flashを選ぶ場面: コード補完、テスト生成、ボイラープレートの生成、バッチ処理。精度はProに劣るが、$0.14/MTokの入力料金は大量のリクエストを気にせず投げられる。開発中のプロトタイピングに常時流しておくような使い方に向く。
懸念と限界
データプライバシー。DeepSeekは中国企業であり、APIを通じたデータの扱いを気にする企業は多い。機密性の高いコードをDeepSeek APIに送ることに抵抗があるなら、Hugging Faceからウェイトをダウンロードしてセルフホストする選択肢がある。MITライセンスなので法的には問題ない。
汎用性の壁。コーディングでは超優秀だが、顧客対応の文章生成やクリエイティブライティングではClaude Opus 4.7に明確に負ける。万能モデルとして使おうとすると期待を裏切られる場面がある。
プロモ終了後の料金。5月末でプロモが終わるとV4 Proの入力は$1.74/MTokになる。それでもGPT-5.5より圧倒的に安いが、プロモ価格の10倍になる点は頭に入れておきたい。
DeepSeek V4 — 公式サイト / API ドキュメント / Hugging Face
関連記事
コーディングAIを「クラウドに放り投げる」時代が来た — Mistral Medium 3.5とVibe Remote Agentsの正体
Mistral AIが128B旗艦モデル「Medium 3.5」とクラウド非同期コーディング「Vibe Remote Agents」を発表。SWE-Bench 77.6%、256kコンテキスト、オープンウェイト。性能・料金・使い方を解説。
DeepSeek V4が正式公開。入力$0.14、Apache 2.0 — 「安すぎて怖い」は本当か
DeepSeek V4 ProとFlashが正式ローンチ。1.6TパラメータMoEでGPT-5.4・Claude Opus 4.6級の性能を、入力$0.14〜$1.74で提供。ベンチマーク・料金・実用性を整理する。
Mistralが縛りを外した — Codestral 2がApache 2.0で降ってきた日
Mistralがコード生成モデルCodestral 2をApache 2.0で公開。前モデルの商用制限が外れた意味、22Bのスペック、DeepSeek CoderやQwen3との立ち位置、ローカルで動かす現実的な使い道を整理する。