Google AI Edge Gallery — スマホでGemma 4をオフライン実行する時代が来た

「スマホでLLMを動かす」と聞いて、まだ実験的なオモチャを想像するだろうか。
Google AI EdgeチームがリリースしたAI Edge Galleryは、その認識を書き換えに来たアプリだ。App StoreとGoogle Playで公開されている公式アプリで、Gemma 4をはじめとするオープンソースLLMをスマートフォン上で完全オフライン実行できる。クラウドAPIへの通信は一切なし。データはデバイスの外に出ない。
実際にインストールして使ってみた。
4つの機能
AI Edge Galleryは単なるチャットアプリではない。4つの異なる機能を搭載しており、それぞれがローカルLLMの実用的なユースケースを示している。
| 機能 | 概要 | 特徴 |
|---|---|---|
| AI Chat | テキストベースの対話 | Thinking Mode対応。思考過程を表示しながら回答を生成 |
| Ask Image | 画像を使った質問 | カメラやギャラリーから画像を読み込み、マルチモーダルで回答 |
| Audio Scribe | 音声の書き起こし | 録音やファイルから文字起こし。翻訳にも対応 |
| Agent Skills | 外部ツール連携 | Wikipedia検索、地図、ビジュアル要約など。カスタムスキルの追加も可能 |
この中で一番「おっ」と思ったのはAgent Skillsだ。ローカルLLMにツール呼び出し能力を付与するという発想は、クラウドのAIエージェントと同じ方向を向いている。URLからカスタムスキルを読み込める仕組みもあり、開発者が独自のスキルを作って配布できる。エッジAIでもエージェント的な使い方ができる時代になった。
動作環境とセットアップ
対応OSはAndroid 12以降とiOS 17以降。最新のハイエンド端末でなくても動くが、RAM 6GB以上の端末を推奨する。
セットアップは直感的だ。アプリをインストールし、使いたいモデルを選んでダウンロードするだけ。Gemma 4 E2B(量子化版で約1.5GB)なら数分でダウンロードが完了する。以降はインターネット接続なしで動作する。
内部的にはLiteRT-LMフレームワークを使用しており、GPUやNPUのハードウェアアクセラレーションに対応している。デバイスのチップセットに応じて最適な推論パスが自動選択される仕組みだ。
アプリにはベンチマーク機能も内蔵されている。自分の端末でどの程度の速度が出るのか、ダウンロード前に把握できるのは親切な設計だ。
プライバシーという最大の武器
AI Edge Galleryの最大の差別化ポイントは、プライバシーの完全性にある。
ChatGPTもGeminiもClaudeも、入力データはサーバーに送信される。オプトアウトの設定はあっても、「データが物理的にデバイスの外に出ない」という保証はできない。AI Edge Galleryは、推論がすべてデバイス上で完結するため、この保証を原理的に提供する。
医療従事者がカルテの内容について質問する。弁護士が機密文書を要約させる。企業が社内資料を分析する。こうしたユースケースでは、「データを外に出さない」ことが選択ではなく要件だ。オフラインで動くLLMアプリの価値は、こういう場面で際立つ。
飛行機の中、地下鉄のトンネル内、通信環境が不安定な海外出張先。ネットワークに依存しないAIアシスタントは、思った以上に便利だ。
正直な評価
良い点ばかり書いてきたので、率直な課題も挙げる。
回答品質はクラウドモデルに及ばない。 Gemma 4 E2Bは2Bパラメータ相当のモデルだ。GPT-5.4やClaude Opus 4.6と比較するのは酷というものだが、複雑な推論や日本語の長文生成では明らかに差がある。「スマホで動く範囲で最善のAI」と割り切る必要がある。
モデルのダウンロードサイズ。 E2Bでも約1.5GB。ストレージに余裕がない端末では気になるサイズだ。複数モデルを入れると圧迫される。
応答速度はデバイス依存。 最新チップセットなら快適だが、数年前のミドルレンジ端末だとやや待たされる。Thinking Modeを有効にすると、さらに時間がかかる。
一方で、Googleがこのアプリをオープンソース(GitHubでトレンド入り)として公開していることは評価すべきだ。コミュニティによる改善やカスタムモデルの追加が期待できる。
まとめ
AI Edge Galleryは、「ローカルAI」が実験段階を抜けてプロダクト段階に入ったことを示すアプリだ。Google自身が公式アプリとしてリリースし、App StoreとGoogle Playに並べたことの意味は大きい。
完璧ではない。回答品質ではクラウドモデルに劣るし、すべてのスマートフォンで快適に動くわけでもない。だが、「データを一切外に出さずにAIを使える」という価値は、今後ますます重要になる。
LiteRT-LMフレームワークの進化と合わせて、エッジAIのエコシステムがGoogleを中心に急速に整備されつつある。スマホにGemma 4を入れて持ち歩く——それが当たり前になる未来は、思ったより近い。
関連記事
LiteRT-LM — Googleがスマホやラズパイで「ローカルLLM」を動かすフレームワークを公開した
GoogleのLiteRT-LMを解説。スマホやRaspberry PiでLLMをローカル実行できるオープンソース推論フレームワークの機能と競合比較がわかる
Gemma 4 — Googleが「無料で使えるAI」に本気を出してきた理由
GoogleのオープンモデルGemma 4を解説。Apache 2.0ライセンスへの転換、2B〜31Bの4サイズ展開、スマホでオフライン実行できるAI Edge Gallery、ベンチマーク比較と実用的な使いどころを紹介
Google AI Edge Eloquent — 無料・オフライン・Gemma搭載の音声入力アプリは本当に「使える」のか
Google AI Edge Eloquentをレビュー。Gemma搭載で完全オフライン動作する無料の音声入力アプリ。フィラー自動除去、テキスト変換機能、SuperWhisper等との比較、英語限定の制約を解説