SiriがとうとうGeminiで動き出す — iOS 26.4でAppleが頭を下げた日
「Siriが賢くなる」と言われ続けて、もう何年が経っただろう。

Apple Intelligenceが2024年のWWDCで発表されたとき、誰もが「ようやくSiriがまともになる」と期待した。けれど、肝心の新Siriの公開は2025年内に間に合わず、2026年初頭にようやく部分的に降りてきたと思ったら、肝の「コンテキスト理解」「オンスクリーン対応」は "coming later" の表記のまま。気付けばSiriは、AppleのWWDCスライドの中でもっとも静かなプロダクトになっていた。
その沈黙が、2026年4月のiOS 26.4でようやく終わる。しかも頭をひねらされるのは、Siriを本当の意味で動かしているのが、AppleのMLチームではなく Google Gemini だということだ。
何がリリースされるのか
2026年1月12日、AppleとGoogleは共同プレスリリースで複数年のパートナーシップを発表した。内容は要するに、次世代Siriと Apple Intelligence の一部を Google の Gemini モデル群が動かす、という契約だ。契約金額は年間10億ドル前後と報じられていて、AppleがMLの分野で外部の肩を借りた事実そのものが業界に波紋を広げた。
その成果物の初弾が、今月配信予定のiOS 26.4だ。配信タイミングは国ごとに段階的だが、米国では4月のメンテナンスアップデートの枠で展開される見込み。日本も同じタイムラインの中で降りてくる。
Apple側は9to5Macの3月20日付スクープでも確認されているとおり、「iOS 26.4は新Siriの最初の正式版」というポジションを崩していない。ただ、メディアによっては "Siri 2.0" と呼んでいて、これは厳密には誤りだ。Appleの内部表記は相変わらず "Siri powered by Apple Intelligence" で、ブランドとしての "Siri 2.0" はない。あくまで中身が静かに差し替わる、というだけ。
Phase 1 で何ができるようになるのか
iOS 26.4で使えるようになる主な機能はこのあたりだ。
- オンスクリーン認識 — 画面に表示されているコンテンツを自動的に文脈として読み取り、「このレシピの材料をリマインダーに追加して」「この画像の人物にメールを送って」みたいな指示が通るようになる
- クロスアプリ操作 — メール・メッセージ・カレンダー・マップなど、Apple純正アプリをまたいだ操作の連鎖を自然言語で頼めるようになる
- メール要約と返信ドラフト — 既存のApple Intelligenceのメール要約機能を、Gemini側がより長い文脈で引き受ける
- World Knowledge Answers — コードネーム "WKA" で呼ばれていた一般知識回答エンジン。PerplexityやChatGPT Searchのような調べもの用途に対応
面白いのは、「フルチャットボット化されたSiri」、つまりChatGPTアプリのようにSiriに連続して会話で相談する体験は、このフェーズにはまだ入っていない点だ。それは秋のiOS 27まで我慢する必要がある。iOS 26.4のSiriは依然として「タップして話しかける音声アシスタント」のフォームを保っている。
つまり今月Appleがリリースするのは、「会話の相手としての新Siri」ではなく、**「ようやく指示が通る旧Siriの再出発」**の方だ。このニュアンスを間違えると期待値のピント合わせに失敗する。
1.2TパラメータのGeminiがiPhoneで動くということ
技術的にいちばん気になるのは、どうやって Google のモデルを Apple の端末で動かしているのかだ。
Apple が契約したのは、Google 公式の Gemini 3.1 Pro そのままではない。Bloomberg の報道によれば、Apple向けにカスタマイズされた 約1.2兆パラメータのGeminiバリアント で、Apple側の仕様要件に合わせて学習とファインチューニングが施されているという。つまり消費者が触るSiriの裏には、公開版のGemini 3.1 Proとは別の "Apple版Gemini" が立っているわけだ。
このモデルは、デバイス上ではなく Apple の Private Cloud Compute 上で動く。Private Cloud ComputeはAppleが2024年に公開した機密処理基盤で、E2E暗号化と Secure Enclave ベースの分離、そして「クエリ処理が終わった瞬間にデータが消える」ことを公開監査で検証できる仕組みを持っている。
細かな話だが、ここで注目したいのは、Google に対してクエリ本文もメタデータも渡さないと Apple が明言している点だ。GoogleからAppleに提供されているのはあくまでモデルウェイトと実行ランタイムで、推論はApple側のインフラで完結する。これは、検索契約で巨額のリベートを受け取ってきたAppleとGoogleの関係性から見ると、少し変わった取り決めでもある。「Googleが関与するが、Googleはユーザーデータを見ない」。両社の関係の歴史を知っている人ほど、この条項の妙さがわかるはずだ。
秋のiOS 27までの「つなぎ」という位置付け
Appleがこの4月に出してくる新Siriは、はっきり言えば秋のiOS 27本番までのつなぎだ。
iOS 27は6月のWWDCで正式発表され、9月の iPhone 18 と同時期に一般配信される見込み。そこでは、ChatGPTやGemini アプリのようにフルチャットベースで会話するSiriが来ると報じられている。内部コードネームは "LLM Siri" または "Bush"。AppleはiOS 27を機にSiriのUI自体を刷新すると言われていて、従来のSiriスフィアを超えた新しい音声UIのフォーマットが出てくる可能性もある。
こう見ると、iOS 26.4はSiriのゴールではなく、「ようやくApple Intelligenceの2024年版の約束を果たすところ」にすぎない。焦らされ続けてきたユーザーにとっては嬉しい春の便りだが、業界的に見れば「秋までの仮免許」だ。
使う側として現実的に考えると
実際に触れる読者の立場で、この話をどう受け止めるべきかを書いておく。
まずひとつ目、即座に体感できる変化は「オンスクリーン操作」と「クロスアプリ指示」の2つに絞っておくと期待外れにならない。「この記事を後で読むリストに入れて、要点3つだけリマインダーに追加して」みたいな、画面に見えているものを足がかりにした指示は Phase 1 の時点ですぐに効く。逆に、「今朝のニュースから相場を読み解いて、明日の会議用にメモを作って」レベルの自律指示は、iOS 27まで待つのが現実的だと思う。
ふたつ目、World Knowledge Answers はPerplexityと競合する。ここが面白いところで、iOS 26.4以降は「Siriに聞くだけで一次情報込みのサマリーが出てくる」体験が手元で完結する。Perplexityのコメントや記事引用のスタイルには及ばないにせよ、Siriが日常会話の中で「ちょっと調べといて」のニーズを引き受けてしまうと、Perplexityや ChatGPT Search が長年ユーザーの手元で勝ち取ってきた「調べ物アプリ」の地位が、一気にOSに吸収されるかもしれない。
3つ目は地味だが一番大きいかもしれない。HomePodとCarPlayでのSiri体験も同時にアップデートされる点だ。家と車での音声操作は、チャットベースのAI UIに比べて遥かに自然言語指示が向いている領域で、Apple Musicの操作やナビ連携で Gemini の文脈理解が効くと、音声アシスタントの使用頻度がハッキリ変わる可能性がある。筆者自身、HomePodで毎朝「今日の予定と天気を教えて、でもお気に入りのポッドキャストが新しく来てたらそれを先に流して」みたいな連結指示を投げたかったのに、旧Siriが毎回フリーズしていたので、この部分だけでも iOS 26.4 の価値は十分ある。
冷静に見ておきたいこと
もちろん、この取り決めには懸念もある。
ひとつは、Apple が自前のLLM開発を部分的に諦めたように見えること。Apple Intelligenceは、もともと "Apple Foundation Models" と呼ばれる自社製基盤モデルをオンデバイスとクラウドの二層で使う設計だった。だが性能面で Gemini に追いつけず、結果として主要プロダクトの中核が外部モデルに置き換わった。これは、エコシステム単位で閉じた設計を得意とするAppleの哲学からすると、かなり大きな譲歩だ。
もうひとつは、Gemini がモデルをアップデートするたびに Siri の挙動が変わり得ること。AppleはPrivate Cloud Computeで動くGeminiバリアントを固定バージョンで運用するとしているが、契約の中身によっては Google 側のロードマップに Siri の体験が引きずられる構図が生まれる可能性もある。ハードとOSで完結してきた Apple が、ソフトウェアの一部を他社の進化カーブに預ける初めてのケースだ。
それでも、ユーザーとしては歓迎できる。Siri の沈黙の2年間を覚えている身からすれば、Google の肩を借りてでも動き出すSiriは、今の Apple Intelligence の閉塞を破る唯一現実的な道に見えるからだ。Siri が会話の相手として使えるようになる日までは、もう少しだけかかる。だがその日までの距離は、昨日よりは確実に縮まっている。
関連記事
GeminiがGmailを読む時代 — Google Personal Intelligenceの「便利」と「怖さ」の境界線
Google Personal IntelligenceはGeminiにGmail・Photos・YouTubeを接続しAIをパーソナライズする新機能。仕組み、設定方法、プライバシー、日本展開の見通しを解説
Google Opal — ノーコードでAIミニアプリを作れる時代が静かに始まった
Google Labsの新ツール「Opal」をレビュー。Gemini 3 Flashベースのノーコードで作れるAIミニアプリ&ワークフロービルダーの実力、活用法、現時点の課題を解説
スマホの中のAIが4倍速くなる日 — Androidに降りてきたGemma 4とGemini Nano 4
GoogleがGemma 4ベースのGemini Nano 4をAndroid AICore Developer Previewで公開。4倍速・電力60%減・140言語対応のオンデバイスAIで何が実現できるか、開発者向け要点をまとめる。