GPT-5.4 mini & nano — OpenAIが「サブエージェント時代」に向けて弾を込めてきた
入力100万トークンあたり20セント。GPT-5.4 nanoの価格を見たとき、最初に思ったのは「ついにここまで来たか」だった。
2026年3月17日、OpenAIはGPT-5.4 miniとGPT-5.4 nanoを同時リリースした。3月5日に公開されたGPT-5.4フルモデルの小型版だが、単なる廉価版として片付けるのはもったいない。この2つのモデルが見据えているのは、AIエージェントが別のAIエージェントを呼び出す「サブエージェント時代」のインフラだ。
mini — 速さとコストの最適解
GPT-5.4 miniの料金は入力$0.75/100万トークン、出力$4.50/100万トークン。コンテキストウィンドウは400K。GPT-5 miniと比べて2倍高速で、SWE-bench Proで54.38%、OSWorld-Verifiedで72.13%を記録している。
この数字をどう読むか。SWE-bench Pro 54.38%は、GPT-5.4フルモデルの57.7%に肉薄する水準だ。つまり、コーディングタスクにおいてはフルモデルとの差がかなり縮まっている。OSWorld-Verified 72.13%に至っては、人間の専門家ベースライン72.4%とほぼ同等である。これが「mini」を名乗るモデルのスコアだというのは、率直に驚く。
ChatGPTでは、無料プランとGoプランのユーザーが「Thinking」機能経由でminiを利用できる。有料プランのユーザーにはレートリミット到達時のフォールバックモデルとして自動的に提供される。つまり、意識せずにminiを使っている人がすでに相当数いるはずだ。
nano — 「考えなくていい仕事」のためのモデル
GPT-5.4 nanoはさらに割り切った設計だ。入力$0.20/100万トークン、出力$1.25/100万トークン。OpenAI史上最小・最安のモデルである。
想定用途はテキスト分類、データ抽出、ランキング、コーディングサブエージェント。要するに、「深い推論は不要だが、大量に高速で処理したい」タスク群だ。
この価格帯が何を意味するか考えてみてほしい。たとえばエージェントが1回の作業で10回のサブタスクを呼び出し、各サブタスクで1万トークンを消費するとしよう。nanoなら、入力だけで見れば1回の作業あたりわずか0.02ドル。1日1000回の作業を回しても入力コストは20ドルだ。これまで「APIコストが高すぎてエージェントの多段呼び出しは現実的じゃない」と言っていた開発者にとって、ゲームチェンジャーになりうる価格設定だと思う。
サブエージェント時代のインフラ
OpenAIがminiとnanoで狙っているのは、明らかにエージェント間通信の基盤だ。
現在のAIエージェントは、1つのタスクに対して1つの高性能モデルを呼ぶ設計が主流である。しかし実際の業務フローでは、「メールの分類」「データの抽出」「コードの軽微な修正」など、フラッグシップモデルを使うまでもない処理が大量に発生する。こうした「考えなくていい仕事」にGPT-5.4フルモデルを呼ぶのは、タクシーで隣の部屋に行くようなものだ。
miniとnanoは、エージェントアーキテクチャにおける「適材適所」を可能にする。オーケストレーターがフルモデルで全体を統括し、個別のサブタスクをminiやnanoに振り分ける。この構成なら、品質を維持しながらコストを桁違いに抑えられる。
気になる点
ベンチマーク非公開の領域。 nanoについてはSWE-benchやOSWorldのスコアが公表されていない。分類やデータ抽出に特化しているとはいえ、汎用性能がどの程度なのかは気になるところだ。安さに惹かれてnanoを使ったら品質が足りなかった、という事態は十分ありえる。
400Kコンテキストの実効性能。 miniもnanoもコンテキストウィンドウは400Kトークンだが、長文脈での精度がフルモデルと同等かどうかは別問題だ。小型モデルはコンテキストの端の方で情報を見落としやすい傾向があり、この点は実用前に検証すべきだろう。
競合との比較。 Claude Haikuシリーズやgemini Flash系など、低コスト帯のモデル競争は激化している。価格だけでなく、特定タスクでの精度や遅延も含めた総合評価が必要になる。OpenAIの価格優位がいつまで続くかは未知数だ。
筆者の見方
GPT-5.4 miniとnanoのリリースは、「AIの民主化」という使い古されたフレーズとは少し違う文脈で重要だ。これはAIモデル同士が会話するためのコスト構造を整えた、インフラレベルの出来事だと捉えている。
人間がチャットUIで使う分にはフルモデルとminiの差は体感しづらい。しかし、エージェントが毎秒何十回もAPIを叩く世界では、1トークンあたりのコスト差が事業の損益を左右する。OpenAIはその世界が来ることを前提に、プロダクトラインを整備してきた。
モデルの性能競争はまだ続くが、2026年の本当の勝負は「どれだけ安く、どれだけ速く、どれだけ大量に回せるか」に移りつつある。GPT-5.4 miniとnanoは、その転換を象徴するリリースだ。
参考リンク
関連記事
AMI Labs — 「LLMは行き止まり」と断言するチューリング賞受賞者が、10億ドルで賭けに出た
ヤン・ルカンが設立したAMI Labsは、LLMに代わる「ワールドモデル」を構築するパリ発のAIスタートアップ。$1.03Bの資金調達、JEPAアーキテクチャ、AI業界への影響を解説。
GPT-5.4が来た — OpenAIの最新モデルは「速さ」と「深さ」を両取りしにきた
OpenAI GPT-5.4の全貌を解説。Standard/Thinking/Proの3バリアント、105万トークン対応、ネイティブコンピュータ操作、ベンチマーク比較、Claude・Geminiとの使い分けを紹介
GLM-5.1 — SWE-Bench Proで首位を奪った中国発OSSモデル、8時間自律コーディングの実力と死角
Z.ai(智譜AI)のGLM-5.1はSWE-Bench ProでGPT-5.4やClaude Opus 4.6を上回った744Bオープンモデル。8時間連続自律コーディングの仕組み、料金、ベンチマークの裏側を解説する。