Google I/O 2026、AI関連で注目すべき5つの発表予想 — Gemini 4はあるのか
5月19日、GoogleはMountain ViewのShoreline Amphitheatreで年次開発者会議 Google I/O 2026 を開く。

去年のI/Oではまだ「AIをどう組み込むか」が主題だった。今年はもう前提が違う。Gemini 3.1 Proがほぼ全製品に入り、Google HomeもAndroidもAIなしには語れなくなった状態で、Googleは次に何を見せるのか。
4月に公開されたセッションリストと、各所からのリーク・観測を突き合わせて、AI関連で注目すべき5つの発表予想を整理した。
1. Gemini 4 — 出るか、出ないか
最大の関心事は次世代モデル「Gemini 4」のお披露目だ。
現時点でGoogleから正式な発表はない。ただ、複数の兆候がある。Gemini 2 Flashの段階的非推奨(deprecation)が開発者向けに通知され始めていること、Gemini 3.1 Proが2月のリリースから3か月が経過していること、そしてI/Oのセッションに「end-to-end AI stack」を掲げたセッションが確認されていること。
Engadgetは「Gemini 4の発表がある可能性」を報じているが、ソースは公式ではなく観測ベースだ。コンテキストウィンドウが現在の100万トークンから200万トークンに拡張されるという予測もある。
正直なところ、Gemini 3.1 Proは十分に強力で、ARC-AGI-2で77.1%という数字を出している。仮にGemini 4が出なくても、3.1系の拡充(Flash Liteの強化やDeep Thinkの一般提供など)だけで十分なインパクトはある。ただ、OpenAIがGPT-5.5を、AnthropicがOpus 4.7を立て続けにリリースしている状況で、Googleが「次世代」を出さないのは考えにくい。
2. エージェントコーディング — Claude Code・Cursorへの回答
セッションリストで公式に確認されているのが「agentic coding」というキーワードだ。
Gemini CLIは既に無料ティアで1日1,000リクエストという破格の条件を提供している。Google AI Studioの「Tab-Tab-Tab」機能も好評だ。だが、Claude CodeやCursorが「エディタの外でも自律的にコードを書く」方向に進んでいる中、Googleのコーディングツールはまだ「補助」の域を出ていない印象がある。
I/Oでは、Firebase経由のエージェントワークフロー統合や、Antigravityと呼ばれるフルスタックアプリ構築ツールの正式発表が予想される。Firebaseが「エージェントネイティブプラットフォーム」へと進化する方向性は、Google Cloud Nextで既に示されていた。
ここでGoogleが「AIプロトタイピングから本番デプロイまで一気通貫」を実現できれば、Vercel + Claude Codeの組み合わせに対抗できる武器になる。
3. Android 17 — AIがOSレベルに溶け込む
Android 17では、AIがアプリの上ではなくOSの中に入る。
注目はPredictiveBack gesture systemのAI拡張だ。ユーザーの行動パターンをNano(オンデバイスモデル)で予測し、「次に開くであろう画面を事前にレンダリングする」という仕組みが導入される見込み。体感速度が劇的に上がる可能性がある。
もう一つは「Adaptive Everywhere」と呼ばれるアプローチ。Android、Chrome OS、XRを統一的にAIが補助する設計思想で、デバイスの種類を意識させないUXを目指しているらしい。
Project Astra(パーシステントなマルチモーダルアシスタント)がAndroid 17にどこまで統合されるかも見どころだ。Gemini Liveの進化と合わせて、「常にそこにいるAI」がどの程度実用的になるか。
4. Gemmaオープンモデルの次世代
専用セッションが確認されているのがGemmaファミリーだ。
クラウド・デスクトップ・モバイルへの展開パスが発表される見込みで、開発者にとってはGemini APIのコストが気になる場面でのオンデバイス代替として重要なポジションになる。
現行のGemma 2は27Bパラメータで十分に実用的だが、オープンモデル市場はこの数か月で急速に動いた。Qwen 3.6がエージェントコーディングに特化して評価を上げ、Llama 4はMeta独自の方向に進み、DeepSeek V4がコスト効率で圧倒している。Gemma 4ではこれらとの正面衝突が避けられない。「小さくて賢い」をどこまで証明できるかが、オンデバイスAI市場でのGoogleの立ち位置を左右する。
5. 映像生成・マルチモーダルの進化
Veo(動画生成モデル)のアップデートも期待される。Veo 3.1が既に動画+音声の同時生成を実現しているが、Runway Gen-4.5やSeedance 2.0との競争は激しい。
Google Photosでの生成AI機能拡張、Google Mapsでのマルチモーダル検索、そしてYouTubeとの統合など、AIを「モデル」としてではなく「プロダクト体験」として見せるのがGoogleの強みだ。I/Oでは技術スペックよりも「これを使うと日常がこう変わる」というデモに注力してくるだろう。
正直、どこまで期待していいのか
過去のI/Oを振り返ると、Googleは「発表だけして実装が遅れる」パターンが少なくない。Gemini 3.1 Proの一般提供も、2月のプレビューからフル展開まで数か月かかっている。
ただ今年は状況が違う。OpenAI、Anthropic、Metaが立て続けにフロンティアモデルを投入し、Cursorが「エージェントファーストIDE」に舵を切り、DeepSeekが激安モデルで市場を揺さぶっている。Googleにとってここは「見せる場」ではなく「出す場」だ。
5月19日の基調講演は日本時間5月20日午前2時開始。リアルタイムで追う価値はある。
関連記事:
- Gemini 3.1 Pro — Googleの現行最強モデルの実力
- Gemini CLI — 無料で使える1000リクエスト/日のAIコーディングツール
- Google AI Studio「Tab-Tab-Tab」 — コード補完の新体験
関連記事
Googleが「Omni」という動画AIを隠し持っていた — I/O直前のリークが示す3つのシナリオ
Google I/O 2026直前にGemini UIから発見された動画生成モデル「Omni」。Veo 3.1を置き換えるのか、Geminiに統合されるのか。リーク内容と3つの解釈を整理する。
Google I/O 2026で何が出るか — Gemini 4、AIメガネ、「エージェントOS」の予兆
5月19-20日開催のGoogle I/O 2026で予想される発表を整理。Gemini 4、Gemini Nano 4、Veo 4、50g以下のAIメガネ、Android 17のAIエージェント統合など注目点を先読みする。
Google I/O直前にリークした「COSMO」 — スマホの中で動くAIアシスタントの正体
Google I/O直前に誤公開されたAIアシスタント「COSMO」の全容。Gemini Nano内蔵で聞く前に動く。