FlowTune Media

Twitterの創業者が作ったAIエージェントが無料公開された — Gooseの立ち位置

AIコーディングエージェントの世界地図はもう「Cursor、Claude Code、Codex」の三強で足りなくなってきた。その端っこでじわじわと存在感を出しているのが、BlockがOSSで公開している Goose だ。GitHubスターはすでに29,000を超え、2026年初頭にはLinux Foundation傘下の新組織 Agentic AI Foundation(AAIF) にプロジェクトごと寄贈された。

寄贈された相手が面白い。Anthropicの MCP と、OpenAIの AGENTS.md と並んで、エージェントAI標準化の三本柱のひとつとして扱われる格好になった。ベンダーが自社製品のPRとしてOSS化するのとは違う、もう一段「業界の共通資産」に近い位置へ移されたのだ。

Rust製という地味に効いてくる選択

Gooseの第一の特徴は言語選定にある。Node製でもPython製でもなく、Rustで実装されている。この一点だけで、実務的にいくつかの恩恵が降ってくる。

ひとつはバイナリ配布のしやすさ。ランタイムを先に入れなくても、GooseのCLIはスタンドアロンで動く。Claude Codeがnpm経由なのに対し、Gooseは brew install block-goose-cli または直接バイナリで終わる。CIパイプラインや軽量コンテナで扱うときに、この差は意外と効く。

ふたつめは起動の速さ。Gooseを使ったことがある人ならわかるが、ターミナルで呼び出してからプロンプトが返ってくるまでの体感が、Claude CodeやCodex CLIより1〜2秒早い。毎回のコマンドで積み上がるとストレスの差になる。

みっつめは、並列でエージェントを立てても相対的にリソースを食わないこと。複数のタスクを並列に走らせたいときに、ラップトップのファンが轟音を立てずに済む。これは筆者の実測感覚だが、同時に5つ走らせても明らかに余裕がある。

MCP 3000+ツール接続という武器

Gooseがベタ褒めされているポイントがもうひとつ。MCP対応の深さだ。

MCPはAnthropicが提唱した「エージェントが外部ツールに接続する」ための標準プロトコルで、2025年後半から事実上の業界標準になった。Gooseはその黎明期から深くコミットしてきたプロジェクトのひとつで、執筆時点で公式に 70以上の拡張機能をカバーし、MCP 経由で 3,000超の外部ツール に接続できる。

具体的に何が繋がるかというと、GitHub、Slack、Notion、Linear、Figma、Supabase、Postgres、Brave Search、Google Drive——だいたい「業務で触るSaaS」のラインナップはほぼ揃っている。さらに自分でMCPサーバーを書けば無制限に拡張できる。Claude Code や Cursor と同じMCPサーバーをGooseでも直接使えるのが大きい。同じツール群にアクセスする別ブランドのエージェント、と考えてもよい。

加えて、Gooseには「Recipes」という概念がある。よく使うワークフロー(たとえば「新機能のコードを書く→テストを生成→CIで回す→Slackに結果を投げる」)を再利用可能な形で保存できる仕組みで、これがCLIネイティブで扱える点が地味に便利だ。テンプレート化すれば、チーム内で手順を配布するのも簡単になる。

Claude Code/Codex CLI と何が違うのか

ここが記事の本題。使い分けの判断基準を整理しておきたい。

モデル自由度が一番はっきりした違いだ。Claude CodeはClaude系モデル(Opus/Sonnet)縛り、Codex CLIはGPT系モデル縛り。一方、Gooseは 15以上のプロバイダーから選んで繋げる。Anthropic、OpenAI、Google、Groq、xAI、ローカルLLM(Ollama経由)すべて対応。「Claude Sonnet 4.6で日常のコーディング、DeepSeek V4で料金の安い雑務」みたいなモデルを使い分ける運用がやりやすい。

料金の透明性も違う。Goose自体はOSSで無料。モデルAPIの従量課金だけ払えば済む。Claude Codeの定額プランに比べるとコスト予測は難しくなるが、軽量なタスクはGroqやOllamaに投げるという選択ができるので、総額は安く抑えやすい

ガバナンスの位置付けも違う。Claude CodeもCodex CLIも、それぞれAnthropicとOpenAIが運営する製品。Gooseは Linux Foundation 配下のOSSプロジェクトで、特定企業の製品戦略に左右されにくい。エンタープライズが「ベンダーロックインしたくない」と考えたときの選択肢として、この中立性は効いてくる。

逆に、Gooseが負けている点もある。UIの洗練度はClaude Code・Cursorには及ばない。デスクトップアプリ版はあるが、まだ発展途上でキーボードショートカットやエディタ統合の手触りは一段劣る。CLIで使うぶんには十分だが、「IDEの中でAIと対話する」体験を期待するとがっかりする可能性が高い。

もうひとつ、MCPツールのセットアップにひと手間ある。Claude Codeは公式から配布されている設定テンプレートが豊富で、「npm install → すぐ動く」のが多いが、Gooseは拡張機能ごとに個別設定を書くケースが多い。初心者にはハードルが高めだ。

どういう開発者に向くか

整理すると、Gooseがハマるのは以下のような人だ。

  • 複数のLLMプロバイダーを使い分けたい — Claudeだけじゃなく、ローカルLLMや中国製モデルも混ぜて使いたい開発者
  • CLIファースト — エディタ統合よりターミナルでの軽快さを優先する人
  • OSSを信頼したい — ベンダー依存を嫌う企業や、ガバナンスを重視するチーム
  • MCPエコシステムを深く使いたい — Claude Codeと同じMCPツール群をCodex CLIやCursorに縛られずに触りたい人

逆に、Cursor並のエディタ体験が欲しい ユーザーや、料金予測を完全に固定したい チームには向かない。その場合は素直にClaude CodeかCursorに投資したほうが幸せになる。

Block/Jack Dorsey発という意味

Gooseがもう一段面白いのは、出自だ。作ったのはBlock(旧Square)。つまり Jack Dorsey 系列の会社だ。BlockはBitcoinやDecentralized Identityの実装に積極的で、中央集権的なプラットフォームにカウンターを当てる思想が全体にある。

そのBlockが作るAIエージェントが、OSSで、かつベンダー中立なLinux Foundationに寄贈されるという流れは、単なる技術選定の話ではない。「AIエージェントのインフラはどの企業にも独占させるべきではない」 という意思表示として読んでも違和感はない。MCPはAnthropic、AGENTS.mdはOpenAI、GooseはBlock。3つが揃って Linux Foundation の傘下に入ったのは、エージェント時代の「中立地帯」を作ろうとする業界全体の動きだ。

これが成功するかはまだわからない。Docker のように普遍化する可能性もあるし、Kubernetesの乱立のように「CNCFに入っただけ」の状態で止まるかもしれない。ただ、AIエージェントを本気で業務に組み込もうとしているチームにとって、特定ベンダーに縛られない選択肢が存在すること自体が価値だ。

筆者の本音

正直、Gooseを毎日使うかと言われると、筆者自身はまだClaude Codeに戻ってしまう場面が多い。モデルの質、UIの滑らかさ、Anthropicが磨き上げているコーディング特化のチューニング——そのあたりで現時点ではClaude Codeが一歩先を行っている、という感覚がある。

でもそれは「いまこの瞬間」の話で、Gooseのポテンシャルは別物だ。Linux Foundationの後ろ盾、複数モデル対応、Rustのパフォーマンス、MCPエコシステム。どれもエンタープライズが長期的に選びやすい要素が揃っている。1〜2年後、社内標準として静かに採用されているのはGooseのような中立OSS側かもしれない。

試すのは簡単だ。brew install block/goose/goose または GitHub Releases からバイナリを取ってきて、ClaudeかOpenAIのAPIキーを設定するだけで動く。既存のMCPサーバーをそのまま流用できるので、Claude Code/Cursor から乗り換えるハードルは高くない。

Goose 公式 / GitHub リポジトリ / Linux Foundation AAIF プレスリリース

関連記事