FlowTune Media

GitHub Copilot、4月24日からあなたのコードでAI学習する — オプトアウトしないと「同意」扱いになる件

設定を変えていなければ、あなたのコードは2週間後にAI学習の素材になる。

2026年3月25日、GitHubはプライバシーポリシーとサービス利用規約の更新を発表した。要点はシンプルで、4月24日以降、Copilot Free・Pro・Pro+ユーザーの入出力データがAIモデルのトレーニングに使用される。しかも、デフォルトでオンだ。

GitHubコミュニティの反応は117のサムズダウンに対してロケットはわずか3つ。The Registerは「We going to train on your data after all」と見出しを打った。何が変わり、何をすべきなのか。整理する。

何が変わるのか

4月24日以降、以下のデータがAIモデルの改善に使われる。

  • Copilotに送信されたプロンプト(コードスニペットを含む)
  • カーソル位置周辺のコードコンテキスト
  • ユーザーが書いたコメントやドキュメント
  • ファイル名、リポジトリ構造
  • Copilotの各機能(チャット、インライン補完など)での操作ログ
  • 提案に対するフィードバック(サムズアップ/ダウン)

つまり、Copilotを使う中で発生するほぼすべてのインタラクションが対象になる。

一方、対象外のデータもある。Issues、Discussions、プライベートリポジトリに「保存されている」コンテンツ(at rest)は含まれない。あくまでCopilotとのやりとりの中で発生するデータだ。ただし、Copilotのチャットにリポジトリのコードを貼り付けた場合、そのスニペットは「インタラクションデータ」に含まれる点には注意が必要だ。

誰が影響を受けるのか

Copilot Free、Pro、Pro+の個人ユーザーのみ。

Copilot BusinessおよびEnterpriseの契約者は今回の変更の対象外だ。企業契約には別のデータ保護条項が適用されている。

ここに批判の核心がある。個人ユーザーや小規模チームは「学習データの供給源」になり得る一方、大口の法人契約者はエンタープライズ契約で保護される。二重構造だ。

オプトアウトの手順

手順は簡単だが、自分でやらないと有効にならない。

  1. github.com/settings/copilot を開く
  2. 「Privacy」セクションまでスクロール
  3. 「Allow GitHub to use my data for AI model training」を Disabled に変更
  4. 保存

以前「GitHubにデータ収集を許可しない」設定をオンにしていたユーザーは、その選択が引き継がれている。確認だけしておけば追加の操作は不要だ。

4月24日までに設定を変更しなければ、デフォルトの「有効」のまま適用される。

データの行き先

GitHubが明記しているのは、このデータがMicrosoft関連会社(アフィリエイト)と共有される可能性があるという点だ。Microsoftのコーポレートファミリーに含まれる企業が対象であり、サードパーティのAIモデルプロバイダーや独立系サービスプロバイダーとは共有されない、とされている。

ただ、「Microsoft関連会社」の範囲は広い。Azure OpenAI Service経由でのモデル改善に使われる可能性を完全に排除する記述は、現時点の公開情報には見当たらない。

開発者が怒っている理由

正直に言えば、「AIモデルの学習にユーザーデータを使う」行為自体は業界では珍しくない。問題はやり方だ。

オプトアウト方式であること。 ユーザーが能動的に拒否しない限り、暗黙の同意とみなされる。GDPRの精神とは真逆のアプローチだ。

発表から適用まで30日しかないこと。 3月25日発表、4月24日適用。気づかなかった人は自動的に対象になる。Hacker Newsのスレッドで「If you don't opt out by Apr 24, GitHub will train on your private repos」というタイトルが拡散されたのは、この短い猶予期間に対する危機感の表れだろう。

個人と法人の非対称性。 企業ユーザーは保護され、個人ユーザーはデフォルトで学習に使われる。月額10ドルを払っているProユーザーですら対象だ。

それでもCopilotを使い続けるか

これは各自の判断だが、いくつかの視点を整理しておく。

オプトアウトしてもCopilotの機能は変わらない。コード補完もチャットも従来通り使える。つまり「オプトアウト一択」と言ってしまいたくなるが、GitHubの説明によれば、実世界のデータがモデル改善に使われることで、将来的に補完精度が向上する可能性がある。自分のデータを提供することで全体の品質に貢献するという考え方もあるにはある。

ただし、プロプライエタリなコードをCopilotに送信している場合、そのスニペットがモデル改善の材料になるリスクは無視できない。クライアントワークや機密性の高いプロジェクトに関わる開発者は、オプトアウトしておくのが無難だ。

もう一つの選択肢は、Copilot Businessへの移行だ。1ユーザーあたり月額19ドル(年払い)で、データトレーニング対象外になる。個人でも購入可能なOrganizationアカウント経由で利用できる。「月額9ドルの差で安心を買う」と考えれば、合理的な判断かもしれない。

まとめ:4月24日までにやること

  1. github.com/settings/copilot を開く
  2. 「Privacy」セクションで学習利用を Disabled にする
  3. 以前オプトアウト済みの人は、設定が引き継がれているか確認する

所要時間は30秒。コードを書くより圧倒的に短い。

関連記事