Dependabot × AIエージェント — GitHubが脆弱性修正を「AIに丸投げ」できるようにした

Dependabotの脆弱性アラート、放置していないだろうか。正直に言えば、多くの開発者がそうだと思う。アラートは来る。内容は理解できる。でも依存関係のバージョンを上げてテストを通してPRを出す——その作業に手が回らない。結果、アラートが積み上がっていく。
2026年4月7日、GitHubがこの問題に対する回答を出した。Dependabotの脆弱性アラートをAIコーディングエージェントにアサインできる機能だ。Copilot Coding Agent、Claude Code、OpenAI Codex——好きなエージェントにアラートを割り当てると、エージェントがアドバイザリを読み、修正PRをドラフトで開いてくれる。
これは単なる自動アップデートではない。Dependabotが従来やっていたルールベースのバージョンバンプとは根本的にアプローチが違う。
仕組み — アラートからPRまで
ワークフローは以下の通り。
- Dependabotが脆弱性を検知 — CVEデータベースとGitHub Advisory Databaseをもとに、リポジトリの依存関係に脆弱性が見つかる
- アラートをAIエージェントにアサイン — GitHub UIから、対応するエージェントを選択してアサイン
- エージェントがコンテキストを分析 — アドバイザリの詳細、影響を受けるパッケージのバージョン、リポジトリ内での実際の使用箇所を調査
- 修正PRをドラフトで作成 — 安全なバージョンへのアップデート、またはダウングレードを含むPRを開く
- テスト実行と自動修復 — CIが走り、テストが失敗した場合はエージェントが原因を分析して修正を試みる
- 人間がレビューしてマージ — ドラフトPRを開発者が確認し、問題なければマージ
ポイントは3のコンテキスト分析だ。従来のDependabotは「バージョンXからYに上げる」という機械的な処理しかできなかった。AIエージェントは、そのパッケージがリポジトリ内でどう使われているかを読み、破壊的変更がある場合はコードの修正まで含めたPRを作れる。
対応エージェントと特徴
| エージェント | 特徴 | 向いているケース |
|---|---|---|
| Copilot Coding Agent | GitHubネイティブ統合。セットアップ不要で最もスムーズ | 標準的な依存関係のアップデート |
| Claude Code | コード理解の深さに定評。複雑な破壊的変更への対応力が高い | APIの変更を伴う大規模アップデート |
| OpenAI Codex | オープンソース。カスタマイズ性が高い | 独自のCI/CDパイプラインとの連携 |
面白いのは、同じアラートに複数のエージェントをアサインできる点だ。各エージェントがそれぞれ独立したPRを開くため、修正アプローチを比較してベストなものを選べる。セキュリティ修正という重要な場面で、AIの出力を競わせるのは合理的な設計だと思う。
従来のDependabotとの使い分け
すべてのアラートにAIエージェントを投入すべきかというと、そうではない。
従来のDependabotで十分なケース: パッチバージョンのバンプ、セマンティックバージョニングに従った非破壊的アップデート。ルールベースで正確に処理できる。
AIエージェントが活きるケース:
- 依存関係のアップデートでビルドが壊れる場合(コードの修正が必要)
- 侵害されたパッケージの安全なバージョンへのダウングレード
- メジャーバージョン変更を伴う複雑なマイグレーション
- Dependabotのルールエンジンでは対応しきれないエッジケース
要するに、「バージョン番号を書き換えるだけでは済まない修正」がAIエージェントの出番だ。
前提条件と料金
この機能を利用するには、GitHub Code Security(旧Advanced Security)と、Coding Agent対応のCopilotプランが必要。つまりFreeプランでは使えない。Business以上のチームか、個人ならCopilot Pro($10/月)以上が対象になる。
先日レビューしたCopilot Agent Modeと同じ基盤の上に構築されているため、すでにCoding Agentを使っているチームは追加設定なしで利用を開始できる。
正直な評価
セキュリティ修正の自動化という方向性は完全に正しい。脆弱性アラートが放置される最大の理由は「面倒」であり、AIエージェントはまさにその「面倒」を引き受けるのに適している。
ただし忘れてはいけないのは、AIが生成した修正はあくまでドラフトだということ。セキュリティ修正こそ、人間のレビューが最も重要なシーンだ。「AIが直してくれたから大丈夫」とノールックでマージするのは、脆弱性を放置するのと同じかそれ以上に危険になりうる。
GitHubがドラフトPRという形式を選んだのは、そのあたりを理解した上での設計判断だろう。
まとめ
Dependabot × AIエージェントは、「放置されがちな脆弱性アラートに対して、人間がレビューするだけで済む状態まで自動で持っていく」機能だ。エージェントの競合比較ができる仕組みも実用的で、GitHubらしいプラットフォーム思想が感じられる。
セキュリティ対応の負担を現実的に減らしてくれるツールとして、特にOSSメンテナーや少人数チームにとっては大きな恩恵になるはずだ。ただし、マージボタンを押す前のレビューだけは、これまで以上に真剣にやろう。
関連記事
GitHub Copilot Agent Mode — Issueを投げたらPRが返ってくる。その精度は?
GitHub Copilot Agent Modeを解説。自律的にコード編集・テスト実行するAgent Mode、IssueからPRを自動生成するCoding Agent、料金、CursorやClaude Codeとの違いを比較
GitHub Copilot SDK — AIエージェントを「自分のアプリ」に組み込める時代が来た
GitHub Copilot SDKを解説。Copilotのエージェント基盤を自前アプリに組み込めるSDKの仕組み、BYOK対応、対応言語、料金体系、Claude Agent SDKやOpenAI Agents SDKとの違いを紹介
Mastra — Gatsbyチームが作ったTypeScript AIエージェントフレームワークは本物か
Gatsbyチーム発のTypeScript AIエージェントフレームワークMastraを実際に触ってレビュー。LangChain.jsやVercel AI SDKとの違いがわかる