FlowTune Media

Google I/O 2026、AI関連で注目すべき5つの発表予想 — Gemini 4はあるのか

5月19日、GoogleはMountain ViewのShoreline Amphitheatreで年次開発者会議 Google I/O 2026 を開く。

Google I/O 2026

去年のI/Oではまだ「AIをどう組み込むか」が主題だった。今年はもう前提が違う。Gemini 3.1 Proがほぼ全製品に入り、Google HomeもAndroidもAIなしには語れなくなった状態で、Googleは次に何を見せるのか。

4月に公開されたセッションリストと、各所からのリーク・観測を突き合わせて、AI関連で注目すべき5つの発表予想を整理した。

1. Gemini 4 — 出るか、出ないか

最大の関心事は次世代モデル「Gemini 4」のお披露目だ。

現時点でGoogleから正式な発表はない。ただ、複数の兆候がある。Gemini 2 Flashの段階的非推奨(deprecation)が開発者向けに通知され始めていること、Gemini 3.1 Proが2月のリリースから3か月が経過していること、そしてI/Oのセッションに「end-to-end AI stack」を掲げたセッションが確認されていること。

Engadgetは「Gemini 4の発表がある可能性」を報じているが、ソースは公式ではなく観測ベースだ。コンテキストウィンドウが現在の100万トークンから200万トークンに拡張されるという予測もある。

正直なところ、Gemini 3.1 Proは十分に強力で、ARC-AGI-2で77.1%という数字を出している。仮にGemini 4が出なくても、3.1系の拡充(Flash Liteの強化やDeep Thinkの一般提供など)だけで十分なインパクトはある。ただ、OpenAIがGPT-5.5を、AnthropicがOpus 4.7を立て続けにリリースしている状況で、Googleが「次世代」を出さないのは考えにくい。

2. エージェントコーディング — Claude Code・Cursorへの回答

セッションリストで公式に確認されているのが「agentic coding」というキーワードだ。

Gemini CLIは既に無料ティアで1日1,000リクエストという破格の条件を提供している。Google AI Studioの「Tab-Tab-Tab」機能も好評だ。だが、Claude CodeやCursorが「エディタの外でも自律的にコードを書く」方向に進んでいる中、Googleのコーディングツールはまだ「補助」の域を出ていない印象がある。

I/Oでは、Firebase経由のエージェントワークフロー統合や、Antigravityと呼ばれるフルスタックアプリ構築ツールの正式発表が予想される。Firebaseが「エージェントネイティブプラットフォーム」へと進化する方向性は、Google Cloud Nextで既に示されていた。

ここでGoogleが「AIプロトタイピングから本番デプロイまで一気通貫」を実現できれば、Vercel + Claude Codeの組み合わせに対抗できる武器になる。

3. Android 17 — AIがOSレベルに溶け込む

Android 17では、AIがアプリの上ではなくOSの中に入る

注目はPredictiveBack gesture systemのAI拡張だ。ユーザーの行動パターンをNano(オンデバイスモデル)で予測し、「次に開くであろう画面を事前にレンダリングする」という仕組みが導入される見込み。体感速度が劇的に上がる可能性がある。

もう一つは「Adaptive Everywhere」と呼ばれるアプローチ。Android、Chrome OS、XRを統一的にAIが補助する設計思想で、デバイスの種類を意識させないUXを目指しているらしい。

Project Astra(パーシステントなマルチモーダルアシスタント)がAndroid 17にどこまで統合されるかも見どころだ。Gemini Liveの進化と合わせて、「常にそこにいるAI」がどの程度実用的になるか。

4. Gemmaオープンモデルの次世代

専用セッションが確認されているのがGemmaファミリーだ。

クラウド・デスクトップ・モバイルへの展開パスが発表される見込みで、開発者にとってはGemini APIのコストが気になる場面でのオンデバイス代替として重要なポジションになる。

現行のGemma 2は27Bパラメータで十分に実用的だが、オープンモデル市場はこの数か月で急速に動いた。Qwen 3.6がエージェントコーディングに特化して評価を上げ、Llama 4はMeta独自の方向に進み、DeepSeek V4がコスト効率で圧倒している。Gemma 4ではこれらとの正面衝突が避けられない。「小さくて賢い」をどこまで証明できるかが、オンデバイスAI市場でのGoogleの立ち位置を左右する。

5. 映像生成・マルチモーダルの進化

Veo(動画生成モデル)のアップデートも期待される。Veo 3.1が既に動画+音声の同時生成を実現しているが、Runway Gen-4.5やSeedance 2.0との競争は激しい。

Google Photosでの生成AI機能拡張、Google Mapsでのマルチモーダル検索、そしてYouTubeとの統合など、AIを「モデル」としてではなく「プロダクト体験」として見せるのがGoogleの強みだ。I/Oでは技術スペックよりも「これを使うと日常がこう変わる」というデモに注力してくるだろう。

正直、どこまで期待していいのか

過去のI/Oを振り返ると、Googleは「発表だけして実装が遅れる」パターンが少なくない。Gemini 3.1 Proの一般提供も、2月のプレビューからフル展開まで数か月かかっている。

ただ今年は状況が違う。OpenAI、Anthropic、Metaが立て続けにフロンティアモデルを投入し、Cursorが「エージェントファーストIDE」に舵を切り、DeepSeekが激安モデルで市場を揺さぶっている。Googleにとってここは「見せる場」ではなく「出す場」だ。

5月19日の基調講演は日本時間5月20日午前2時開始。リアルタイムで追う価値はある。


関連記事:

関連記事