FlowTune Media

Linuxカーネルが「AIで書かれたコード」を正式に受け入れた — TorvaldsとCopilotの間で起きていたこと

「AI が書いたコードを Linux カーネルに入れていいのか?」という、数か月にわたって燻っていた論争が、4 月 12 日にひとつの結論を迎えた。

Linus Torvalds とサブシステムメンテナたちが合意した内容はざっくりこうだ。GitHub Copilot のような AI ツールは OK。ただし「AI スロップ」と呼ばれる、人間が中身を読まずに垂れ流したコードは NG。署名した開発者がそのコードに対して、技術的にも法的にも全責任を負う

Tom's HardwarePhoronix、PC Guide、ITSFOSS、Web And IT News あたりが連続して取り上げ、海外の OSS コミュニティが軽くざわついている。Linux カーネルというプロジェクトの規模・影響力を考えると、これは「AI コーディングが市民権を得た日」と呼んでよいレベルの出来事だ。

何が決まったのか

合意の中身を、メンテナの公開メールスレッドから整理するとこうなる。

  • AI ツール自体は禁止しない — Copilot、Cursor、Claude Code、Google Antigravity 等を使ってパッチを書いてもよい
  • AI 由来であることの開示は不要 — 「これは AI で書きました」というタグは強制しない
  • 「AI スロップ」は明確に拒否 — 提出者がレビューせずに大量の自動生成コードを送りつける行為は、メンテナの裁量で即拒否できる
  • 責任は人間が完全に持つ — Signed-off-by を付けた瞬間、その人がコードの正しさ・セキュリティ・ライセンスについて責任を負う。AI が間違えました、は通用しない
  • テンプレ化された AI レポートは NG — Bugzilla や ML に AI 出力をそのまま貼り付ける行為もスロップ扱い

ポイントは「AI を排除する vs 全面解禁する」の二項対立を避けて、「人間の責任」 という一点で線引きしたところだ。これは Torvalds らしい、と言える。形式的なルールを増やすことよりも、最終的に責任を取れる人間がいるかどうかで判断する考え方は、Linux カーネルが 30 年以上続けてきた文化と整合する。

Torvalds 自身が AI で書き始めていた

この合意の伏線として、Torvalds 本人の心境変化があった。

Torvalds はこれまで、AI コーディングについては懐疑的というか、半ば嘲笑的なスタンスを公にしていた。「LLM は補助輪付きの自転車で進む酔っぱらいのようなものだ」みたいな発言をしていた人物だ。

それが今年に入ってから態度を変えた。自身が GPL ライセンスで公開している小さなプロジェクト「AudioNoise」で、Python 製のビジュアライザー部分を Google の Antigravity IDE を使って書いていたことを認めたのだ。「C のコア部分は自分で書いた。Python の可視化部分は AI に頼んだ。なぜなら自分は Python があまり得意じゃないから」。

これは雰囲気の話としてはかなり大きい。「AI コーディングなんて軟弱者がやるもんだ」と言っていた人が、自分の苦手領域を AI で埋め始めたわけで、要するに 「使えるなら使う」 という当たり前の現実を認めたことになる。

そのうえで、4 月の合意では Torvalds は「AI スロップの問題はドキュメントだけでは絶対に解決しない」と明言している。ルールを文書化しても、現場のメンテナが嫌悪感を持つかどうかが最終的な防壁になる、という冷静な見方だ。

「AI スロップ」とは何か

合意の中で何度も出てくる「AI slop」という言葉は、定義が曖昧なまま広まっているので、ここで整理しておきたい。

メンテナたちが念頭に置いているのは、以下のようなパターンだ。

  • コピペ提出 — Copilot や Claude にバグ修正を作らせ、レビューせずに git commit してプルリクを投げる
  • 大量の機械的修正 — typo 修正やリファクタを AI に一括で当てさせ、コミット内容を確認せずに送る
  • 「AI が見つけたバグ」レポート — 静的解析もどきの AI 出力を Bugzilla に貼り付け、メンテナに調査を強制する
  • 「とりあえず動いた」コード — テストが通っただけで、その変更が正しい設計なのか考えていない

要するに、「AI に下駄を履かせて、本来かかるべき思考コストを誰かに押し付ける」 行為のことだ。コードそのものに技術的な瑕疵がなくても、レビュー側のメンテナの時間を一方的に奪うことが問題視されている。

ここが Linux のような大規模 OSS の難しさで、「動くから OK」ではない。100 個の低品質パッチを処理する時間で 1 個の重要なパッチが見落とされるなら、その 100 個は害悪なのだ。

何が変わるのか

合意で実際に変わるのは、たぶんふたつだ。

ひとつめは、AI コーディングを使っていたメンテナの罪悪感が消えること。これまで Copilot や Cursor を使っているカーネル開発者は、明示的に禁止されていたわけではないが、Torvalds の発言を意識して半分隠れて使っていた節がある。これが正式に「使ってよい」となったことで、表立って活用できるようになる。

ふたつめは、スロップに対するメンテナの強権が認められたこと。今までは「AI で書いたかどうかは判別しにくいから、雑なパッチも一応見ないといけない」というプレッシャーがあった。これからは「これはスロップだ」と宣言して即座に閉じる動きが取りやすくなる。

逆に、変わらないこともある。Linux カーネルの品質基準そのものは何も下がらない。むしろ「AI を使うなら、その分人間がより慎重に確認しろ」というメッセージなので、提出者にかかる負荷は実質的に上がる方向だ。Copilot で雑にパッチを書いて投げて、メンテナに直してもらう、という運用は今までより通りにくくなる。

他の OSS プロジェクトへの波及

ここからが個人的にいちばん面白いところだ。

Linux カーネルは OSS 界の最大級のプロジェクトであり、ここでの判断は他のプロジェクトの暗黙のリファレンスになる。Python、Rust、Kubernetes、PostgreSQL あたりが、これからこぞって「Linux 方式」を真似しに来る可能性は高い。

実際、Rust 言語コミュニティはすでに似たような議論をしていた。Rust 7.0 のメンテナミーティングで、AI 生成コードへの方針を「Linux と整合させる」方向で詰めている、という話も出ている。

これはつまり、「OSS 全体で AI 生成コードを受け入れる空気が一段固まる」 ということだ。3 か月前までは「AI で書いたコードは PR に出すな」という暗黙のルールがあったプロジェクトでも、今後は「使うのは自由、責任は提出者」という方向に揃ってくる可能性が高い。

副作用としては、AI コーディングツールベンダー(GitHub、Cursor、Anthropic)にとって、OSS 文脈での売り込みがしやすくなる。「Linux カーネルですら認めた」というのは強烈なお墨付きだ。

1 つだけ気になっていること

最後に、筆者がひとつだけ心配しているのは、「人間の責任」という看板が、いつまで本気で運用されるかだ。

Signed-off-by を付ける文化が機能しているのは、メンテナがその名前で人間関係を築いていて、雑な仕事をすると評判が落ちるからだ。だが AI 経由で大量のパッチが流れ込んでくる時代になると、新規貢献者の比率が増え、「名前と顔が一致する」濃い人間関係の網が薄まる。そうなったとき、Signed-off-by の重みもじわじわ下がる気がする。

Linux カーネルはおそらく持ちこたえる。コアメンテナの結束が強いからだ。だが、もっと若い OSS プロジェクトが Linux 方式をそのまま採用したとき、責任の網が機能するかは別問題だ。

これは「やってみないとわからない」領域だが、Linux カーネルがここで示した態度——ルールを増やすより、人間に賭ける ——は、AI 時代の OSS が向き合うべき問いを正面から提示している気がする。

参考: Phoronix の Torvalds 発言まとめ / ITSFOSS の Torvalds AudioNoise レポート

関連記事