FlowTune Media

Cursor Bugbot が自己改善を始めた — フィードバックからルールを自動学習し、PR解決率80%へ

AIコードレビューツールの多くは、使い始めた瞬間が一番賢い。そこからは「ノイジーなコメントを出し続けるbot」に成り下がるか、チームが諦めてオフにするかの二択だった。

CursorのBugbotは、その常識を覆そうとしている。

2026年4月8日、Cursorは公式ブログでBugbotの「自己改善(Self-Improving)」機能を発表した。ユーザーからのフィードバックを基にルールを自動生成し、同じ間違いを二度と繰り返さない仕組みだ。すでに11万以上のリポジトリが学習モードを有効化し、4.4万以上のルールが自動生成されている。

Cursor Bugbot 自己改善

Bugbotとは何か

まずBugbotの位置づけを整理しておく。

BugbotはCursorが提供するAIコードレビューエージェントだ。GitHub上のプルリクエストに対して自動的にコードレビューを実行し、バグの可能性、パフォーマンスの問題、セキュリティリスクなどを指摘する。

従来のリンターやスタティック解析ツールとの違いは、コードの「意図」を理解した上でレビューを行う点だ。単に構文チェックをするのではなく、「この変更はこういう意図だと思うが、この部分でエッジケースが抜けている」といった、人間のレビュアーに近いフィードバックを返す。

ただし、これまでのBugbotには大きな弱点があった。プロジェクト固有のルールを学習しないことだ。チームごとに異なるコーディング規約、テストの書き方、エラーハンドリングのパターン——こうした「暗黙知」をBugbotは理解できなかった。結果として、的外れなコメントが混じり、開発者が「またBugbotか」とスルーする状況が生まれていた。

自己改善の仕組み:ダウンボートがルールになる

今回のアップデートの核心は、フィードバックループによるルール自動生成だ。

仕組みはシンプルで強力だ。

  1. Bugbotがプルリクエストにコメントを残す
  2. 開発者がコメントを評価する — 有用なら👍(アップボート)、不要なら👎(ダウンボート)
  3. ダウンボートされたコメントをBugbotが分析する — なぜそのコメントが不適切だったのかを推論
  4. 抑制ルールを自動生成する — 「このパターンのコメントは今後出さない」というルールを作成
  5. 次回以降のレビューにルールが適用される — 同じカテゴリのノイズが消える

たとえば、チームが意図的にany型を使っているコードに対してBugbotが「型安全性の問題」を指摘したとする。開発者がダウンボートすると、Bugbotは「このリポジトリでは特定のケースでany型の使用が許容されている」というルールを自動的に学習し、類似のコメントを抑制する。

重要なのは、これがリポジトリごとに独立して学習するという点だ。チームAのルールがチームBに影響することはない。各リポジトリが、そのチーム固有の「AIレビュアーの性格」を育てていく設計になっている。

4.4万ルール、11万リポジトリ——数字が証明する「使われている」事実

数字は雄弁だ。

リリースからわずかな期間で、11万以上のリポジトリが学習モードを有効化した。これはBugbotの全ユーザーベースのかなりの割合を占める。そして、そこから4.4万以上のルールが自動生成されている。

1リポジトリあたり平均0.4ルール——多いと感じるか少ないと感じるかは人それぞれだが、ポイントは「最もノイジーだった指摘が真っ先に消える」ことだ。たった数個のルールでも、開発者の体験は劇的に改善される。

そして、PR解決率は**約80%**に達した。これは競合製品と比較して+15ポイント高い水準だという。「AIが出した指摘の8割が実際に修正につながる」という数字は、コードレビューツールとしては極めて高い精度だ。

正直、この数字には驚いた。AIコードレビューツールの指摘は「参考程度に見る」ものという認識だったが、8割が実際に修正につながるなら、もはや人間のジュニアレビュアーより頼りになる場面もあるだろう。

MCP対応の強化:外部ツールとの連携が広がる

今回のアップデートでは、MCP(Model Context Protocol)対応の強化も注目ポイントだ。

MCPは、AIモデルが外部ツールやサービスと連携するための標準プロトコルだ。Bugbotがこれに対応を強化したことで、以下のような連携が可能になる。

  • CIツールとの統合 — テスト結果やカバレッジ情報をBugbotのレビューに反映
  • プロジェクト管理ツール — JiraやLinearのチケット情報を参照した文脈のあるレビュー
  • カスタムツール — チーム独自の解析ツールやドキュメントをBugbotに接続

MCPの威力は「Bugbotが見える範囲を広げる」ことにある。コードの差分だけを見るのではなく、テスト結果、ドキュメント、チケットの背景情報を踏まえたレビューが可能になる。これにより、的外れなコメントがさらに減り、実用的な指摘の割合が高まる。

GitHub Copilot Code ReviewやCodeRabbitとどう違うのか

AIコードレビューの分野には、GitHub Copilot Code Review、CodeRabbit、Qodoなど複数のプレイヤーがいる。Bugbotの自己改善機能は、この中でどういう位置づけになるのか。

最大の差別化ポイントは「学習の自動性」だ。

多くのツールは、ルールのカスタマイズに設定ファイルの編集を要求する。.coderabbitrc.github/copilot-review-config.ymlのようなファイルに、手動でルールを書く必要がある。これは設定の手間がかかるだけでなく、「どんなルールが必要か」を事前に把握していないと書けない。

Bugbotのアプローチは逆だ。使いながら、不要なものを削ぎ落とす。 開発者は設定ファイルを一切触る必要がない。ダウンボートするだけでいい。これは、特にAIコードレビューを初めて導入するチームにとって、導入のハードルを大幅に下げる。

実務で活かすための3つのポイント

Bugbotの自己改善機能を最大限に活かすなら、以下を意識するといい。

1. 初期のダウンボートを面倒くさがらない

学習の精度は、初期のフィードバックの質に依存する。導入直後の1〜2週間は、的外れなコメントが多く出る。ここで面倒くさがらずにダウンボートを押すことが、長期的なノイズ削減に直結する。

2. チーム全員でフィードバックする

ルールはリポジトリ単位で蓄積される。一人だけがフィードバックするのではなく、チーム全員が参加することで、より包括的なルールセットが育つ。

3. MCP連携でコンテキストを広げる

Bugbotの精度は「見えている情報の量」に比例する。CI結果やドキュメントをMCP経由で接続することで、コードの差分だけでは判断できない問題も検出できるようになる。

Cursor 3との相乗効果

Bugbotの進化は、先日リリースされたCursor 3との相乗効果も見逃せない。

Cursor 3の「バックグラウンドエージェント」がコードを書き、そのPRをBugbotがレビューする。Bugbotの指摘をエージェントが自動修正し、再度Bugbotがレビュー——というAIによる完全自律コードレビューループが現実になりつつある。

人間の役割は、最終的な承認と、Bugbotのルール調整(ダウンボート)だけ。コーディングもレビューもAIが担い、人間は方向性を決めるだけの時代が、想像以上に早く来ている。

「育てるAI」という新しい関係性

Bugbotの自己改善機能が示しているのは、AIツールとの付き合い方の変化だ。

これまでのAIツールは「最初から完璧に動くか、使えないか」の二択だった。設定を詰めて、プロンプトを調整して、それでもダメならアンインストール。Bugbotが提案しているのは、第三の道——使いながら育てるというアプローチだ。

ダウンボートという最小限のアクションで、AIが自分のチームのやり方を学んでいく。この体験が他のAIツールにも広がれば、「AIは導入して終わり」ではなく「一緒に成長するもの」という認識に変わっていくかもしれない。

Cursorは「書く」と「直す」の両方をAIで完結させる方向に、着実に歩を進めている。Bugbotの進化は、その戦略の中でも特に実用的なピースだ。


関連記事

関連記事