Cursor Bugbot が自己改善を始めた — フィードバックからルールを自動学習し、PR解決率80%へ
AIコードレビューツールの多くは、使い始めた瞬間が一番賢い。そこからは「ノイジーなコメントを出し続けるbot」に成り下がるか、チームが諦めてオフにするかの二択だった。
CursorのBugbotは、その常識を覆そうとしている。
2026年4月8日、Cursorは公式ブログでBugbotの「自己改善(Self-Improving)」機能を発表した。ユーザーからのフィードバックを基にルールを自動生成し、同じ間違いを二度と繰り返さない仕組みだ。すでに11万以上のリポジトリが学習モードを有効化し、4.4万以上のルールが自動生成されている。

Bugbotとは何か
まずBugbotの位置づけを整理しておく。
BugbotはCursorが提供するAIコードレビューエージェントだ。GitHub上のプルリクエストに対して自動的にコードレビューを実行し、バグの可能性、パフォーマンスの問題、セキュリティリスクなどを指摘する。
従来のリンターやスタティック解析ツールとの違いは、コードの「意図」を理解した上でレビューを行う点だ。単に構文チェックをするのではなく、「この変更はこういう意図だと思うが、この部分でエッジケースが抜けている」といった、人間のレビュアーに近いフィードバックを返す。
ただし、これまでのBugbotには大きな弱点があった。プロジェクト固有のルールを学習しないことだ。チームごとに異なるコーディング規約、テストの書き方、エラーハンドリングのパターン——こうした「暗黙知」をBugbotは理解できなかった。結果として、的外れなコメントが混じり、開発者が「またBugbotか」とスルーする状況が生まれていた。
自己改善の仕組み:ダウンボートがルールになる
今回のアップデートの核心は、フィードバックループによるルール自動生成だ。
仕組みはシンプルで強力だ。
- Bugbotがプルリクエストにコメントを残す
- 開発者がコメントを評価する — 有用なら👍(アップボート)、不要なら👎(ダウンボート)
- ダウンボートされたコメントをBugbotが分析する — なぜそのコメントが不適切だったのかを推論
- 抑制ルールを自動生成する — 「このパターンのコメントは今後出さない」というルールを作成
- 次回以降のレビューにルールが適用される — 同じカテゴリのノイズが消える
たとえば、チームが意図的にany型を使っているコードに対してBugbotが「型安全性の問題」を指摘したとする。開発者がダウンボートすると、Bugbotは「このリポジトリでは特定のケースでany型の使用が許容されている」というルールを自動的に学習し、類似のコメントを抑制する。
重要なのは、これがリポジトリごとに独立して学習するという点だ。チームAのルールがチームBに影響することはない。各リポジトリが、そのチーム固有の「AIレビュアーの性格」を育てていく設計になっている。
4.4万ルール、11万リポジトリ——数字が証明する「使われている」事実
数字は雄弁だ。
リリースからわずかな期間で、11万以上のリポジトリが学習モードを有効化した。これはBugbotの全ユーザーベースのかなりの割合を占める。そして、そこから4.4万以上のルールが自動生成されている。
1リポジトリあたり平均0.4ルール——多いと感じるか少ないと感じるかは人それぞれだが、ポイントは「最もノイジーだった指摘が真っ先に消える」ことだ。たった数個のルールでも、開発者の体験は劇的に改善される。
そして、PR解決率は**約80%**に達した。これは競合製品と比較して+15ポイント高い水準だという。「AIが出した指摘の8割が実際に修正につながる」という数字は、コードレビューツールとしては極めて高い精度だ。
正直、この数字には驚いた。AIコードレビューツールの指摘は「参考程度に見る」ものという認識だったが、8割が実際に修正につながるなら、もはや人間のジュニアレビュアーより頼りになる場面もあるだろう。
MCP対応の強化:外部ツールとの連携が広がる
今回のアップデートでは、MCP(Model Context Protocol)対応の強化も注目ポイントだ。
MCPは、AIモデルが外部ツールやサービスと連携するための標準プロトコルだ。Bugbotがこれに対応を強化したことで、以下のような連携が可能になる。
- CIツールとの統合 — テスト結果やカバレッジ情報をBugbotのレビューに反映
- プロジェクト管理ツール — JiraやLinearのチケット情報を参照した文脈のあるレビュー
- カスタムツール — チーム独自の解析ツールやドキュメントをBugbotに接続
MCPの威力は「Bugbotが見える範囲を広げる」ことにある。コードの差分だけを見るのではなく、テスト結果、ドキュメント、チケットの背景情報を踏まえたレビューが可能になる。これにより、的外れなコメントがさらに減り、実用的な指摘の割合が高まる。
GitHub Copilot Code ReviewやCodeRabbitとどう違うのか
AIコードレビューの分野には、GitHub Copilot Code Review、CodeRabbit、Qodoなど複数のプレイヤーがいる。Bugbotの自己改善機能は、この中でどういう位置づけになるのか。
最大の差別化ポイントは「学習の自動性」だ。
多くのツールは、ルールのカスタマイズに設定ファイルの編集を要求する。.coderabbitrcや.github/copilot-review-config.ymlのようなファイルに、手動でルールを書く必要がある。これは設定の手間がかかるだけでなく、「どんなルールが必要か」を事前に把握していないと書けない。
Bugbotのアプローチは逆だ。使いながら、不要なものを削ぎ落とす。 開発者は設定ファイルを一切触る必要がない。ダウンボートするだけでいい。これは、特にAIコードレビューを初めて導入するチームにとって、導入のハードルを大幅に下げる。
実務で活かすための3つのポイント
Bugbotの自己改善機能を最大限に活かすなら、以下を意識するといい。
1. 初期のダウンボートを面倒くさがらない
学習の精度は、初期のフィードバックの質に依存する。導入直後の1〜2週間は、的外れなコメントが多く出る。ここで面倒くさがらずにダウンボートを押すことが、長期的なノイズ削減に直結する。
2. チーム全員でフィードバックする
ルールはリポジトリ単位で蓄積される。一人だけがフィードバックするのではなく、チーム全員が参加することで、より包括的なルールセットが育つ。
3. MCP連携でコンテキストを広げる
Bugbotの精度は「見えている情報の量」に比例する。CI結果やドキュメントをMCP経由で接続することで、コードの差分だけでは判断できない問題も検出できるようになる。
Cursor 3との相乗効果
Bugbotの進化は、先日リリースされたCursor 3との相乗効果も見逃せない。
Cursor 3の「バックグラウンドエージェント」がコードを書き、そのPRをBugbotがレビューする。Bugbotの指摘をエージェントが自動修正し、再度Bugbotがレビュー——というAIによる完全自律コードレビューループが現実になりつつある。
人間の役割は、最終的な承認と、Bugbotのルール調整(ダウンボート)だけ。コーディングもレビューもAIが担い、人間は方向性を決めるだけの時代が、想像以上に早く来ている。
「育てるAI」という新しい関係性
Bugbotの自己改善機能が示しているのは、AIツールとの付き合い方の変化だ。
これまでのAIツールは「最初から完璧に動くか、使えないか」の二択だった。設定を詰めて、プロンプトを調整して、それでもダメならアンインストール。Bugbotが提案しているのは、第三の道——使いながら育てるというアプローチだ。
ダウンボートという最小限のアクションで、AIが自分のチームのやり方を学んでいく。この体験が他のAIツールにも広がれば、「AIは導入して終わり」ではなく「一緒に成長するもの」という認識に変わっていくかもしれない。
Cursorは「書く」と「直す」の両方をAIで完結させる方向に、着実に歩を進めている。Bugbotの進化は、その戦略の中でも特に実用的なピースだ。
関連記事
関連記事
Cursor Bugbotが「自己学習」で覚醒 — AIコードレビューの解決率80%到達の衝撃
Cursor Bugbotの新機能Learned Rulesを解説。リポジトリ固有のルールを自動学習し、AIコードレビューの解決率80%を達成した仕組みと実用的な活用法
Amp — Sourcegraphが「Cody」を捨てて作り直した、コードレビューもやるAIエージェントの正体
SourcegraphのAIアシスタント「Cody」が独立会社Amp Inc.として再出発。CLI・VS Code対応のエージェント型コーディングツールAmpの機能、料金、Cursor/Claude Codeとの違いを整理する。
Qodo — 「AIが書いたコードをAIが検証する」時代の本命は、コード生成ツールではなかった
Qodo(旧CodiumAI)はAI生成コードの検証に特化したマルチエージェントシステム。ベンチマーク最高F1スコア60.1%、$70M調達の背景、CodeRabbitとの違いを整理する。