FlowTune Media

Google AI Edge Gallery — スマホでGemma 4をオフライン実行する時代が来た

Google AI Edge Gallery

「スマホでLLMを動かす」と聞いて、まだ実験的なオモチャを想像するだろうか。

Google AI EdgeチームがリリースしたAI Edge Galleryは、その認識を書き換えに来たアプリだ。App StoreとGoogle Playで公開されている公式アプリで、Gemma 4をはじめとするオープンソースLLMをスマートフォン上で完全オフライン実行できる。クラウドAPIへの通信は一切なし。データはデバイスの外に出ない。

実際にインストールして使ってみた。

4つの機能

AI Edge Galleryは単なるチャットアプリではない。4つの異なる機能を搭載しており、それぞれがローカルLLMの実用的なユースケースを示している。

機能 概要 特徴
AI Chat テキストベースの対話 Thinking Mode対応。思考過程を表示しながら回答を生成
Ask Image 画像を使った質問 カメラやギャラリーから画像を読み込み、マルチモーダルで回答
Audio Scribe 音声の書き起こし 録音やファイルから文字起こし。翻訳にも対応
Agent Skills 外部ツール連携 Wikipedia検索、地図、ビジュアル要約など。カスタムスキルの追加も可能

この中で一番「おっ」と思ったのはAgent Skillsだ。ローカルLLMにツール呼び出し能力を付与するという発想は、クラウドのAIエージェントと同じ方向を向いている。URLからカスタムスキルを読み込める仕組みもあり、開発者が独自のスキルを作って配布できる。エッジAIでもエージェント的な使い方ができる時代になった。

動作環境とセットアップ

対応OSはAndroid 12以降とiOS 17以降。最新のハイエンド端末でなくても動くが、RAM 6GB以上の端末を推奨する。

セットアップは直感的だ。アプリをインストールし、使いたいモデルを選んでダウンロードするだけ。Gemma 4 E2B(量子化版で約1.5GB)なら数分でダウンロードが完了する。以降はインターネット接続なしで動作する。

内部的にはLiteRT-LMフレームワークを使用しており、GPUやNPUのハードウェアアクセラレーションに対応している。デバイスのチップセットに応じて最適な推論パスが自動選択される仕組みだ。

アプリにはベンチマーク機能も内蔵されている。自分の端末でどの程度の速度が出るのか、ダウンロード前に把握できるのは親切な設計だ。

プライバシーという最大の武器

AI Edge Galleryの最大の差別化ポイントは、プライバシーの完全性にある。

ChatGPTもGeminiもClaudeも、入力データはサーバーに送信される。オプトアウトの設定はあっても、「データが物理的にデバイスの外に出ない」という保証はできない。AI Edge Galleryは、推論がすべてデバイス上で完結するため、この保証を原理的に提供する。

医療従事者がカルテの内容について質問する。弁護士が機密文書を要約させる。企業が社内資料を分析する。こうしたユースケースでは、「データを外に出さない」ことが選択ではなく要件だ。オフラインで動くLLMアプリの価値は、こういう場面で際立つ。

飛行機の中、地下鉄のトンネル内、通信環境が不安定な海外出張先。ネットワークに依存しないAIアシスタントは、思った以上に便利だ。

正直な評価

良い点ばかり書いてきたので、率直な課題も挙げる。

回答品質はクラウドモデルに及ばない。 Gemma 4 E2Bは2Bパラメータ相当のモデルだ。GPT-5.4やClaude Opus 4.6と比較するのは酷というものだが、複雑な推論や日本語の長文生成では明らかに差がある。「スマホで動く範囲で最善のAI」と割り切る必要がある。

モデルのダウンロードサイズ。 E2Bでも約1.5GB。ストレージに余裕がない端末では気になるサイズだ。複数モデルを入れると圧迫される。

応答速度はデバイス依存。 最新チップセットなら快適だが、数年前のミドルレンジ端末だとやや待たされる。Thinking Modeを有効にすると、さらに時間がかかる。

一方で、Googleがこのアプリをオープンソース(GitHubでトレンド入り)として公開していることは評価すべきだ。コミュニティによる改善やカスタムモデルの追加が期待できる。

まとめ

AI Edge Galleryは、「ローカルAI」が実験段階を抜けてプロダクト段階に入ったことを示すアプリだ。Google自身が公式アプリとしてリリースし、App StoreとGoogle Playに並べたことの意味は大きい。

完璧ではない。回答品質ではクラウドモデルに劣るし、すべてのスマートフォンで快適に動くわけでもない。だが、「データを一切外に出さずにAIを使える」という価値は、今後ますます重要になる。

LiteRT-LMフレームワークの進化と合わせて、エッジAIのエコシステムがGoogleを中心に急速に整備されつつある。スマホにGemma 4を入れて持ち歩く——それが当たり前になる未来は、思ったより近い。

AI Edge Gallery(GitHub) | Google Play | App Store

関連記事