OpenAIが「AGI」を12回から2回に減らした — 8年ぶり原則改定で何が消えたのか
OpenAIの2018年設立憲章には、こう書いてあった。
もし安全性を重視する価値観の合うプロジェクトが、我々より先にAGIの構築に近づいた場合、我々は競争をやめ、そのプロジェクトを支援することを約束する。
この一文が消えた。

4月26日、Sam Altmanは「Our Principles」と題したブログ記事を公開し、OpenAIの新たな5原則を示した。2018年の憲章を8年ぶりに全面改定するもので、AGIという言葉の出現回数は12回から2回に激減している。
翌日、Elon Muskとの$134B(約2兆円)訴訟の陪審員選定が始まった。偶然にしては、タイミングが出来すぎている。
新しい5原則 — 何が書かれているか
改定後の原則は以下の5つ。
1. 民主化(Democratization) — AIに関する意思決定は民主的プロセスで行われるべきであり、少数のAI研究所だけが決めるものではない。技術が一部の権力者に集中することに抵抗する。
2. エンパワメント(Empowerment) — AIはすべての人が目標を達成し、学び、幸福になることを助けるべき。ユーザーには「広い自由度」を約束するが、潜在的な害が不確実な場合はOpenAI側が制限をかける権利を留保する。
3. 普遍的繁栄(Universal Prosperity) — データセンター建設やインフラの垂直統合を「コスト削減と恩恵のグローバル普及」として正当化。政府に新しい経済モデルの検討を呼びかけている。
4. レジリエンス(Resilience) — 生物兵器やサイバーセキュリティのリスクに対して、企業・政府・エコシステムと協力することを約束。
5. 適応性(Adaptability) — 技術の進化に合わせて立場を修正する、と明言。運用原則がいつ・なぜ変わったかを透明に開示すると約束している。
何が消えたのか
新原則で書かれている内容より、消えたものの方が重要だ。
まず、2018年憲章の核心だった「我々の第一の受託者責任は人類に対してある」という宣言がなくなった。OpenAIは今やPublic Benefit Corporation(PBC)であり、株主への責任も負う。人類への受託者責任を維持することは、法的に微妙な立場を作る。
次に、冒頭で触れた競合支援条項。「AGIに先に到達しそうな安全なプロジェクトがあれば競争をやめて支援する」という約束は、Anthropicが二次市場で1兆ドルの評価を受ける現実では維持できない。競合を支援するどころか、APIの顧客を奪い合っている。
そして、言葉遣いの変化。2018年は「we commit」(約束する)、「we will」(する)という確約型の表現が並んでいた。2026年版は「we believe」(信じる)、「we expect」(期待する)に後退している。約束から信念へ。拘束力が薄れたと見る批評家は少なくない。
なぜ今なのか
この改定は真空の中で起きたわけではない。
2026年2月、OpenAIはキャップ付き営利組織からPBC(公益法人)への転換を完了した。OpenAI Foundationが26%、Microsoftが27%、従業員とその他投資家が47%の株式を保有する構造になった。非営利研究所の原則が、商業企業の原則に書き換わるのは、構造的に避けられないことだったとも言える。
Fortuneは2026年2月の時点で、OpenAIがこの9年間でミッションステートメントを6回変更し、直近の変更では「safely」(安全に)という単語をミッションから削除したと報じている。今回の原則改定は、その延長線上にある。
Altman自身は新原則の中で、OpenAIが2018年当時よりも「桁違いに大きくなった」ことを認め、「我々がやっていることの重さを考えれば、膨大な精査を受けるに値する」と述べている。この自覚は率直だと思う。
Anthropicとの対比が浮き彫りにするもの
興味深いのは、かつてOpenAIを離れた研究者たちが作ったAnthropicとの対比だ。
Dario AmodeiらがOpenAIを去ったのは、まさに安全性への姿勢に不満があったからだ。Anthropicは今もConstitutional AI(AIに原則を書き込んで訓練する手法)やResponsible Scaling Policy(安全レベルに応じた段階的なスケーリング方針)を維持している。2026年2月にはトランプ政権の軍事AI利用要請を拒否し、連邦政府からの制限を受けたとも報じられている。
OpenAIは逆方向に動いた。安全性の「約束」を「信念」に後退させ、AGIへの言及を最小化し、インフラ企業としてのアイデンティティを前面に出した。
どちらが正しいかは、今の時点では判断できない。ただ、2018年のOpenAIが掲げていた理想に最も忠実なのは、皮肉なことに、そのOpenAIから離れた人たちが作った会社だ。
ユーザーにとって何が変わるか
原則文書自体はガバナンスレベルの話であり、ChatGPTやAPIの機能が明日変わるわけではない。
ただし、いくつかの実質的な影響が読み取れる。エンパワメント原則で「ユーザーに広い自由度を与える」と明言されたことで、コンテンツポリシーの緩和方向への圧力がかかる可能性がある。一方で「潜在的な害が不確実な場合は制限する」という留保もあり、OpenAIの裁量で制限が入る余地は残っている。
また、普遍的繁栄の原則はインフラ拡大の正当化であり、これはコスト低下と利用可能性の拡大に繋がるはずだ。GPT-5.5がすでに利用可能な中で、モデルの改善よりもインフラの拡充に軸足を移していることが、原則レベルでも表明された形になる。
正直なところ、この原則改定は「既に起きたことの追認」だと感じる。OpenAIは2023年のAltman解任騒動以降、事実上の商業企業として走ってきた。原則文書がそれに追いついただけだ。だが、追認であっても公式に書き記されることには意味がある。次に何かが変わったとき、「前回の原則ではこう書いてあった」という基準線になるからだ。
関連記事
ChatGPTが「寝ている間に仕事を終わらせる」フェーズに入った — Workspace Agentsの中身を整理する
OpenAIが4月22日に発表したChatGPT Workspace Agents。Codex基盤でSlack・Salesforce・Google Driveと連携し、チームのタスクをバックグラウンドで自律実行する仕組みと料金を整理する。
ChatGPTの「医師専用モード」が無料で始まった — OpenAIが医療に本気を出した理由
OpenAIが米国の医師・薬剤師向けにChatGPT for Cliniciansを無料提供開始。NPI認証、HIPAA対応、HealthBenchで人間の医師を超えたスコアの意味を解説。
DALL-E終了、後継は「考えてから描く」 — ChatGPT Images 2.0で何が変わるのか
OpenAIがChatGPT Images 2.0を正式リリース。DALL-Eは5月12日で廃止される。Thinkingモード、日本語テキスト描画、2K解像度など新機能の実力を整理する。