Google I/O 2026で何が出るか — Gemini 4、AIメガネ、「エージェントOS」の予兆
4月のGoogle Cloud Nextが「AIインフラの設計図」を見せたイベントだったとすれば、5月のGoogle I/Oは「その設計図で何が動くのか」を見せる場になる。
開催は5月19〜20日。公式が公開したセッションリストからは、Gemini 4、Android 17のエージェント統合、軽量AIメガネなど、今回のI/Oがかなり密度の高い発表になりそうな気配が見て取れる。ここではリーク情報やセッション構成から、発表が予想される目玉を整理しておく。
日時と視聴方法
メインキーノートは5月19日10:00 AM(太平洋時間)、日本時間では5月20日午前2時開始。続く開発者キーノートは同日1:30 PM PT(日本時間5月20日午前5:30)。Google I/O公式サイトからライブ配信を視聴できる。
例年通り、キーノートで大型発表を一気に出し、翌日以降のセッションで技術的な深掘りが入る流れになるだろう。
Gemini 4 — 「セッションを跨ぐ記憶」が本物なら
今回最大の注目はGemini 4だ。複数のリーク情報によれば、ARC-AGI2ベンチマークで84.6%を記録しているとされる。
だが数字以上に気になるのは「クロスセッションコンテキスト」の実装だ。従来のモデルは会話ごとに文脈がリセットされるため、長期プロジェクトでは毎回コンテキストを再構築する必要があった。Gemini 4では、セッションを跨いで状態を保持できるようになるという。
これが本当に動くなら、影響はかなり大きい。たとえば、数週間にわたる開発プロジェクトで「前回どこまでやったか」をモデルが覚えている状態が作れる。Claude CodeのCLAUDE.mdやCursorのRulesのように、ユーザーが手動でコンテキストを管理する仕組みが不要になるかもしれない。
正直、本当にシームレスに動くかは見てみないとわからない。ただ、Googleがこの方向に賭けているのは間違いない。
Gemini Nano 4 — スマホ上で動くAIの次の姿
4月2日にプレビューされたGemini Nano 4は、FastとFullの2バリアントで構成される。Gemma 4のE2BとE4Bモデルがベースで、前世代のNanoから3倍の速度向上を謳っている。
ポイントはオンデバイス処理だ。クラウドに送らずにスマホ上で完結するため、プライバシーの面でも通信コストの面でも利点がある。Android 17と組み合わせることで「端末内で完結するAIエージェント」の実用度が一段上がる可能性がある。
I/Oではこれを使ったAndroid 17のデモが中心になるはずだ。
Android 17 — OSそのものがエージェントになる
セッションリストで頻出するのが「agentic」という言葉だ。Android 17では、AIがアプリを横断してタスクを実行する機能が組み込まれる。
具体的には、メッセージ、メール、カレンダーなど複数のアプリから情報を自動で引き出し、ユーザーの代わりにアクションを完了する仕組みが報じられている。これまでのAndroidが「ユーザーの操作に応答するOS」だったのに対し、Android 17は「ユーザーの意図を先読みして動くOS」へ一歩踏み出す。
また「Adaptive Everywhere」というコンセプトで、Android、ChromeOS、XRを統合するアプローチも示される見込みだ。折りたたみ端末やタブレットでのマルチタスク改善も含め、「一つのOSで全画面サイズをカバーする」方向が加速する。
筆者が気になるのは、このエージェント機能がどこまで日本のアプリに対応するかだ。英語圏のSlack・Gmail連携が完璧でも、日本語のLINEやfreeeとの統合がなければ半分しか意味がない。この辺りの多言語・多アプリ対応がどこまで進んでいるかは、I/Oの具体的なデモで見極めたい。
Veo 4 — 30秒の4K動画生成
GoogleのAI動画モデルVeoの次世代版も登場する見込みだ。Veo 4は最大30秒の4Kクリップを生成でき、ストーリーボード機能も備えるとされている。
3月に公開されたVeo 3.1がすでにかなりの品質を出していたが、4K・30秒という仕様は現行のどのAI動画モデルよりも長い。RunwayのGen-4.5やByteDanceのSeedance 2と真正面からぶつかる。
クリエイター目線で言えば、30秒あれば短いCMやSNS用動画がまるごと1クリップで生成できる。テンプレに頼らず一発でイメージ通りの動画が出るかはまだ未知数だが、ここが動画生成AIの次の競争ラインになるのは確実だ。
AIメガネ — 50g以下の常時装着型
公式にはまだ詳細が出ていないが、50g以下のAIメガネに関するセッションが確認されている。Googleは以前からProject Astraでマルチモーダルなリアルタイムアシスタントを研究しており、その延長線上にあるプロダクトだろう。
Snapのスペクタクルが200g超、MetaのRay-Ban Metaが約50gであることを考えると、50g以下はかなり攻めた軽量化だ。ただし、バッテリー持続時間とのトレードオフがどうなるかは気になる。
個人的には、AIメガネの「常に視界にAIがいる」体験は、スマホやPCとは質的に異なる可能性がある。検索したり話しかけたりしなくても、視線の先にある情報をAIが拾ってくれる世界。Gemini 4のクロスセッションコンテキストと組み合わされば、「今朝のミーティングで話した件」をメガネ越しに確認できるような体験も理論上は可能になる。
開発者向け — エージェントコーディングが主役
開発者キーノートの中心テーマは「agentic coding」。AIがルーティンの開発タスクを引き受け、エンジニアはアーキテクチャや戦略に集中する——という構図だ。
4月のCloud Nextで発表されたGemini Enterprise Agent PlatformやA2Aプロトコルが、I/Oでは実際の開発ワークフローに落とし込まれたデモとして出てくるはずだ。Firebase、Android Studio、Google AI Studioとの統合が深まれば、Googleのエコシステム内で「コードを書く」体験が大きく変わる可能性がある。
実際、Android Studio Panda 4にはすでにPlanning ModeやNext Edit Predictionが搭載されている。I/OではこれがGemini 4ベースにアップグレードされたバージョンが出てもおかしくない。
Cloud Nextで見えていたこと
4月のGoogle Cloud Next 2026では、Vertex AIの廃止とGemini Enterprise Agent Platformへの移行、第8世代TPU、260件以上の発表が行われた。詳細はこちらの記事で整理している。
Cloud Nextの発表がまだ消化しきれていない読者も多いだろうが、I/OではこれらのインフラがGemini 4やAndroid 17を通じて「触れるプロダクト」として具体化されるはずだ。あの260件の発表が実際のユーザー体験にどう落ちるか、ここが一番の見どころかもしれない。
見どころのまとめ
| 予想される発表 | 注目度 | 根拠 |
|---|---|---|
| Gemini 4 | ★★★ | リーク情報多数、ARC-AGI2スコア流出 |
| Android 17 + エージェント統合 | ★★★ | セッション多数、プレビューデモ済み |
| Gemini Nano 4(オンデバイス) | ★★☆ | 4月2日にプレビュー済み |
| Veo 4(4K動画) | ★★☆ | 複数メディアのリーク |
| AIメガネ(50g以下) | ★★☆ | セッション確認済み |
| 開発者向けAI統合 | ★★☆ | Cloud Nextの延長 |
5月19日の深夜(日本時間)、リアルタイムで見る価値のあるイベントになりそうだ。特にGemini 4の実演とAndroid 17のエージェント機能は、今後半年のAIツール選びに直接影響する。発表後に速報記事を出す予定なので、そちらも併せてチェックしてほしい。
関連記事
Geminiを持つGoogleが、なぜClaudeに6兆円を賭けるのか
GoogleがAnthropicに最大400億ドル(約6兆円)を投資。Geminiと競合するClaudeの開発元に巨額を注ぐ理由と、Claude利用者への影響を整理する。
Vertex AIはもう存在しない — Google Cloud Next 2026で始まった「エージェントのクラウド」の全容
Google Cloud Next 2026の主要発表を整理。Vertex AI廃止、Gemini Enterprise Agent Platform、第8世代TPU、A2Aプロトコルなど260件から重要な変更を抜き出す。
メールもドキュメントも会議も、1つのAIが横断して読む — Google Workspace Intelligenceの狙い
Google Cloud Next 2026で発表されたWorkspace Intelligence。GmailやDocsを横断するAI層の仕組みと影響を整理。