Linuxカーネルが「AIで書かれたコード」を正式に受け入れた — TorvaldsとCopilotの間で起きていたこと
「AI が書いたコードを Linux カーネルに入れていいのか?」という、数か月にわたって燻っていた論争が、4 月 12 日にひとつの結論を迎えた。
Linus Torvalds とサブシステムメンテナたちが合意した内容はざっくりこうだ。GitHub Copilot のような AI ツールは OK。ただし「AI スロップ」と呼ばれる、人間が中身を読まずに垂れ流したコードは NG。署名した開発者がそのコードに対して、技術的にも法的にも全責任を負う。
Tom's Hardware、Phoronix、PC Guide、ITSFOSS、Web And IT News あたりが連続して取り上げ、海外の OSS コミュニティが軽くざわついている。Linux カーネルというプロジェクトの規模・影響力を考えると、これは「AI コーディングが市民権を得た日」と呼んでよいレベルの出来事だ。
何が決まったのか
合意の中身を、メンテナの公開メールスレッドから整理するとこうなる。
- AI ツール自体は禁止しない — Copilot、Cursor、Claude Code、Google Antigravity 等を使ってパッチを書いてもよい
- AI 由来であることの開示は不要 — 「これは AI で書きました」というタグは強制しない
- 「AI スロップ」は明確に拒否 — 提出者がレビューせずに大量の自動生成コードを送りつける行為は、メンテナの裁量で即拒否できる
- 責任は人間が完全に持つ — Signed-off-by を付けた瞬間、その人がコードの正しさ・セキュリティ・ライセンスについて責任を負う。AI が間違えました、は通用しない
- テンプレ化された AI レポートは NG — Bugzilla や ML に AI 出力をそのまま貼り付ける行為もスロップ扱い
ポイントは「AI を排除する vs 全面解禁する」の二項対立を避けて、「人間の責任」 という一点で線引きしたところだ。これは Torvalds らしい、と言える。形式的なルールを増やすことよりも、最終的に責任を取れる人間がいるかどうかで判断する考え方は、Linux カーネルが 30 年以上続けてきた文化と整合する。
Torvalds 自身が AI で書き始めていた
この合意の伏線として、Torvalds 本人の心境変化があった。
Torvalds はこれまで、AI コーディングについては懐疑的というか、半ば嘲笑的なスタンスを公にしていた。「LLM は補助輪付きの自転車で進む酔っぱらいのようなものだ」みたいな発言をしていた人物だ。
それが今年に入ってから態度を変えた。自身が GPL ライセンスで公開している小さなプロジェクト「AudioNoise」で、Python 製のビジュアライザー部分を Google の Antigravity IDE を使って書いていたことを認めたのだ。「C のコア部分は自分で書いた。Python の可視化部分は AI に頼んだ。なぜなら自分は Python があまり得意じゃないから」。
これは雰囲気の話としてはかなり大きい。「AI コーディングなんて軟弱者がやるもんだ」と言っていた人が、自分の苦手領域を AI で埋め始めたわけで、要するに 「使えるなら使う」 という当たり前の現実を認めたことになる。
そのうえで、4 月の合意では Torvalds は「AI スロップの問題はドキュメントだけでは絶対に解決しない」と明言している。ルールを文書化しても、現場のメンテナが嫌悪感を持つかどうかが最終的な防壁になる、という冷静な見方だ。
「AI スロップ」とは何か
合意の中で何度も出てくる「AI slop」という言葉は、定義が曖昧なまま広まっているので、ここで整理しておきたい。
メンテナたちが念頭に置いているのは、以下のようなパターンだ。
- コピペ提出 — Copilot や Claude にバグ修正を作らせ、レビューせずに
git commitしてプルリクを投げる - 大量の機械的修正 — typo 修正やリファクタを AI に一括で当てさせ、コミット内容を確認せずに送る
- 「AI が見つけたバグ」レポート — 静的解析もどきの AI 出力を Bugzilla に貼り付け、メンテナに調査を強制する
- 「とりあえず動いた」コード — テストが通っただけで、その変更が正しい設計なのか考えていない
要するに、「AI に下駄を履かせて、本来かかるべき思考コストを誰かに押し付ける」 行為のことだ。コードそのものに技術的な瑕疵がなくても、レビュー側のメンテナの時間を一方的に奪うことが問題視されている。
ここが Linux のような大規模 OSS の難しさで、「動くから OK」ではない。100 個の低品質パッチを処理する時間で 1 個の重要なパッチが見落とされるなら、その 100 個は害悪なのだ。
何が変わるのか
合意で実際に変わるのは、たぶんふたつだ。
ひとつめは、AI コーディングを使っていたメンテナの罪悪感が消えること。これまで Copilot や Cursor を使っているカーネル開発者は、明示的に禁止されていたわけではないが、Torvalds の発言を意識して半分隠れて使っていた節がある。これが正式に「使ってよい」となったことで、表立って活用できるようになる。
ふたつめは、スロップに対するメンテナの強権が認められたこと。今までは「AI で書いたかどうかは判別しにくいから、雑なパッチも一応見ないといけない」というプレッシャーがあった。これからは「これはスロップだ」と宣言して即座に閉じる動きが取りやすくなる。
逆に、変わらないこともある。Linux カーネルの品質基準そのものは何も下がらない。むしろ「AI を使うなら、その分人間がより慎重に確認しろ」というメッセージなので、提出者にかかる負荷は実質的に上がる方向だ。Copilot で雑にパッチを書いて投げて、メンテナに直してもらう、という運用は今までより通りにくくなる。
他の OSS プロジェクトへの波及
ここからが個人的にいちばん面白いところだ。
Linux カーネルは OSS 界の最大級のプロジェクトであり、ここでの判断は他のプロジェクトの暗黙のリファレンスになる。Python、Rust、Kubernetes、PostgreSQL あたりが、これからこぞって「Linux 方式」を真似しに来る可能性は高い。
実際、Rust 言語コミュニティはすでに似たような議論をしていた。Rust 7.0 のメンテナミーティングで、AI 生成コードへの方針を「Linux と整合させる」方向で詰めている、という話も出ている。
これはつまり、「OSS 全体で AI 生成コードを受け入れる空気が一段固まる」 ということだ。3 か月前までは「AI で書いたコードは PR に出すな」という暗黙のルールがあったプロジェクトでも、今後は「使うのは自由、責任は提出者」という方向に揃ってくる可能性が高い。
副作用としては、AI コーディングツールベンダー(GitHub、Cursor、Anthropic)にとって、OSS 文脈での売り込みがしやすくなる。「Linux カーネルですら認めた」というのは強烈なお墨付きだ。
1 つだけ気になっていること
最後に、筆者がひとつだけ心配しているのは、「人間の責任」という看板が、いつまで本気で運用されるかだ。
Signed-off-by を付ける文化が機能しているのは、メンテナがその名前で人間関係を築いていて、雑な仕事をすると評判が落ちるからだ。だが AI 経由で大量のパッチが流れ込んでくる時代になると、新規貢献者の比率が増え、「名前と顔が一致する」濃い人間関係の網が薄まる。そうなったとき、Signed-off-by の重みもじわじわ下がる気がする。
Linux カーネルはおそらく持ちこたえる。コアメンテナの結束が強いからだ。だが、もっと若い OSS プロジェクトが Linux 方式をそのまま採用したとき、責任の網が機能するかは別問題だ。
これは「やってみないとわからない」領域だが、Linux カーネルがここで示した態度——ルールを増やすより、人間に賭ける ——は、AI 時代の OSS が向き合うべき問いを正面から提示している気がする。
参考: Phoronix の Torvalds 発言まとめ / ITSFOSS の Torvalds AudioNoise レポート
関連記事
Copilot CLIに「ラバーダック」がやってきた — 異なるモデル同士で相互レビューする時代
GitHub Copilot CLIの新機能「Rubber Duck」を解説。異なるモデルファミリーでプランとコードを相互レビューし、Sonnet→Opusの性能差の74.7%を埋める仕組みを整理する。
AMD PACE — GPU不足時代、EPYCで380トークン/秒が出るという静かな一撃
AMDがLLM推論最適化エンジン「PACE」を公開。5th Gen EPYCでvLLMの1.6〜4.45倍の速度を達成。GPU不足時代のCPU推論という選択肢を整理する。
GitHub Copilot、4月24日からあなたのコードでAI学習する — オプトアウトしないと「同意」扱いになる件
GitHub Copilotが4月24日からユーザーのコードをAI学習に利用開始。対象データ、影響を受けるプラン、オプトアウト手順を解説。設定変更しないとデフォルトで同意扱いになる