月$20のClaude Codeに対抗馬が現れた — 無料で使えるQwen Codeの実力
Claude Codeに月$20を払っている開発者は多い。それだけの価値があるからだ。ターミナルに住み着くAIエージェントが、コードベースの理解から編集、テスト実行、Git操作まで一気通貫でこなしてくれる。
だが、同じことを無料でやれるツールがあると聞いたら、試さない理由はないだろう。

AlibabaのQwenチームが開発するQwen Codeは、Claude Codeと同じ「ターミナル常駐型」のAIコーディングエージェントだ。GitHub Stars 23,500超、Apache-2.0ライセンスのオープンソース。しかもデフォルトモデルのQwen 3.6 Plusは無料で使える。
何ができるのか
Qwen Codeの基本的な立ち位置はClaude Codeと同じだ。ターミナルから起動し、自然言語で指示を出すと、AIがコードベースを読み解き、ファイルを編集し、コマンドを実行する。
ただし、いくつかの独自機能がある。
Channels(マルチプラットフォーム連携)。 TelegramやWeChatからQwen Codeに指示を送れる。ターミナルの前にいなくても、スマホから「このPRのテストを回して」と指示できる。移動中や会議中にタスクを投げておける便利さは、Claude Codeにはない発想だ。
Cronタスク。 定期実行のスケジューリングが組み込まれている。「毎朝9時にmainブランチのCIステータスをチェックして、失敗していたら修正案を出す」のような自動化が、crontabを触らずに設定できる。
/planモード。 Ctrl+Oで切り替えられるプランニングモード。AIがまずコードベースを読み取り専用で分析し、実行計画を提示する。承認してから初めて変更が走る。大規模なリファクタリングの前に「まず全体像を見せて」と言えるのはありがたい。
サブエージェントのモデル分離。 メインタスクにはQwen 3.6 Plus(高性能モデル)を使い、サブタスクにはQwen 3.5(軽量モデル)を使う——という振り分けが可能。コストとスピードのバランスを自分で調整できる。
モデルの選択肢が広い
Qwen CodeはQwen専用ツールではない。OpenAI互換API、Anthropic、Geminiにも対応しているため、Claude OpusやGPT-4oを裏側に使うことも可能だ。OllamaやvLLMを使えばローカルモデルでも動く。
つまり、Qwen Codeを「CLIフレームワーク」として使い、モデルだけ好きなものに差し替えるという使い方ができる。Claude Codeは当然ながらAnthropicのモデルしか使えないので、この柔軟性はQwen Codeの明確な強みだ。
デフォルトのQwen 3.6 Plusの性能も侮れない。公式ベンチマークではGPT-5やClaude 3.7 Sonnet並のコーディング性能を謳っている。実際の使用感では、Claude Codeの方が複雑なアーキテクチャ判断やデバッグで上回るという報告が多い。だが、日常的なコーディングタスクなら十分実用的なレベルだ。
Claude Code、Codex CLIとの比較
三者を並べてみる。
Claude Code — Anthropicのモデル限定。月$20(Pro)。コード品質とデバッグ能力は現時点で最高水準。反復が少なく、一発で正確なコードを出す傾向がある。エコシステムが成熟しており、Hooks、MCP、サブエージェントなど拡張性も高い。
OpenAI Codex CLI — OpenAIのモデル限定。ChatGPT Pro(月$20)で利用可能。サンドボックス実行が特徴で、AIが安全な環境でコードを試してから提案する。
Qwen Code — マルチモデル対応。Qwen 3.6 Plus利用なら無料。Channels、Cron、/planなど独自機能が豊富。Apache-2.0でオープンソース。IDE統合(VS Code、JetBrains、Zed)にも対応。
率直な印象として、コードの品質だけを見ればClaude Code > Codex CLI > Qwen Codeの順だろう。ただし「無料 + マルチモデル + Channels/Cron」という組み合わせはQwen Codeにしかない。
導入は簡単
インストールはnpmかHomebrewで一行。
npm install -g @qwen-code/qwen-code@latest
Node.js 20以上が必要。Alibaba CloudのAPIキーを取得すれば、Qwen 3.6 Plusが無料で使える。他のモデルを使いたい場合は、各プロバイダーのAPIキーを設定するだけだ。
どう使い分けるか
「Claude Codeの代替」として全面移行するのは正直まだ早い。コードの品質と安定性では差がある。
ただ、以下のようなケースではQwen Codeの方が合理的だ。
コストを抑えたい個人開発者やOSSコントリビューター。 月$20は安くないが、無料は無料だ。趣味のプロジェクトやOSSへの貢献に月額料金を払いたくないなら、Qwen Codeで十分なことは多い。
社内ネットワークにローカルモデルを使いたいチーム。 OllamaやvLLMでローカルLLMを使えるのは、機密性の高いコードベースを扱う環境では大きな利点だ。Claude CodeやCodex CLIではこれができない。
CLIエージェントを自分好みにカスタマイズしたい開発者。 Apache-2.0のオープンソースなので、フォークして自社向けに改造できる。プロプライエタリなClaude Codeでは不可能だ。
毎週アップデートされている
Qwen Codeの開発ペースは速い。毎週のウィークリーアップデートで新機能が追加されており、v0.14.5(2026年4月15日時点)。最近のアップデートではトークン上限の倍増、リアルタイム使用量表示、JetBrains対応などが入った。
この開発速度は諸刃の剣でもある。機能が増える一方で、安定性の検証が追いついているかは疑問が残る。仕事で使うなら、バージョンを固定して運用する方が安全だろう。
中国発のオープンソースAIツールが、シリコンバレー発の有料ツールと正面から競争できるレベルに来ている。Claude Codeが$20の価値を持っていることは間違いない。だが、無料の選択肢がここまで実用的になったのは、開発者にとって歓迎すべき状況だ。
関連記事
パラメータの9割を寝かせて勝つモデル vs 全弾フル稼働の31B — Qwen 3.6とGemma 4、開発者はどちらを選ぶべきか
Qwen3.6-35B-A3BとGemma 4-31Bを主要ベンチマーク・VRAM消費・ライセンスで比較。用途別の選び方を整理した。
Mistralが縛りを外した — Codestral 2がApache 2.0で降ってきた日
Mistralがコード生成モデルCodestral 2をApache 2.0で公開。前モデルの商用制限が外れた意味、22Bのスペック、DeepSeek CoderやQwen3との立ち位置、ローカルで動かす現実的な使い道を整理する。
Linuxカーネルが「AIで書かれたコード」を正式に受け入れた — TorvaldsとCopilotの間で起きていたこと
2026年4月12日、Linuxカーネルプロジェクトが正式にAI生成コードの受け入れ方針を策定。Copilotは可、AIスロップは不可、責任は提出者という3点セットの中身と、なぜTorvaldsが態度を変えたのかを解説。