Geminiが3Dモデルを描いて触って動かせるようになった — 月3万円だった機能が全Proに降りてきた
「月の軌道を見せて」と Gemini に頼んだら、文字の説明とフラットな図ではなく、マウスで掴んでぐるぐる回せる 3D シミュレーションが返ってくる。 しかも重力の強さと初速のスライダー付きで。
2026 年 4 月、Google は Gemini アプリ の「インタラクティブ・ビジュアライゼーション」機能を、全 Pro モデル利用者にグローバル展開した。もともとは 2025 年 12 月に月 200 ドルの Gemini Ultra 限定でひっそり先行リリースされていた機能で、事実上 月 3 万円の特典が Pro ($20/月) に降りてきた かたちになる。
正直、これは「追加機能」というよりパラダイムの変化に近い。AI チャットの出力が「読むもの」から「触るもの」に変わる第一歩として、触っておいて損はないアップデートだと思った。
何が生成できるようになったのか
Google の 発表ブログ にある例を追っていくと、ざっくり 3 種類のアウトプットがある。
1 つ目が 3D モデル。カフェインの分子構造を頼むと、原子の配置が 3D で描画され、ドラッグで自由に回転できる。化学系の教科書の図が目の前で立体化するイメージだ。
2 つ目が 物理シミュレーション。「二重振り子の動きを見せて」と聞くと、振り子が実際にアニメーションで動き、さらに「重力」「初速」「減衰係数」のスライダーが並ぶ。数値を動かすと挙動がリアルタイムで変わる。カオス理論の教材が即席で生成される感覚がある。
3 つ目が インタラクティブチャート。データを渡せば、単なる棒グラフではなく、カーソルを重ねると数値がポップアップし、期間や軸を切り替えできるグラフが返ってくる。ブラウザで Python + Plotly を書いて得られる成果物に近い。
トリガーは難しくない。プロンプト内に「show me(見せて)」「help me visualize(視覚化して)」といったフレーズを入れるだけで、Gemini がインタラクティブ出力モードに切り替える。日本語でも「見せて」「可視化して」で問題なく動いた。
なぜ今、このタイミングで Pro に降ろしてきたのか
時系列を整理すると動きがわかりやすい。Anthropic は 3 月に Claude の Interactive Visualizations を全ユーザー向けに提供し、数式やデータから即座に動くグラフやシミュレーションを出せるようにした。OpenAI も同時期に ChatGPT で類似の Canvas 機能を拡張している。
Ultra 限定のままだと Google だけ「高い金を払わないと触れない」という印象になりかねない。Pro に開放したのは、コンシューマ向けの体験競争で取り残されないための防衛的な一手に見える。
一方で、Ultra 利用者からするとメリットが 1 つ減ったわけで、今後 Google が Ultra 向けに何を用意してくるかも気になるところだ。噂レベルでは「自作 Python 実行環境の統合」「複数ビジュアライゼーションの連結」といった方向性が出ている。
実際どこで使えるか
機能紹介だけだと「ふーん」で終わりがちなので、触ってみて「これは刺さりそう」と感じた使い所を挙げておく。
教育・学習。これは文句なしに効く。高校物理の「単振り子」「惑星の軌道」「振動と波」といったトピックは、従来は YouTube で誰かが作った動画を探す必要があった。Gemini なら「共振を見せて」で即席でスライダー付きの教材が出てくる。親が子供に何かを説明する場面で、ホワイトボードの代わりに Gemini を開く未来はかなり現実味がある。
プレゼン資料の叩き台。顧客向け資料で「このキャンペーンの売上推移を見せたい」というとき、Excel と睨めっこする前に Gemini に一度突っ込んで叩き台を作ってもらうと速い。もちろんそのまま使える品質ではないが、「どういう切り口で見せるか」の議論を始めるのに十分だ。
分子や構造の理解。薬剤師・化学系の学生が分子の立体構造を瞬時に確認できるのは大きい。従来 PubChem のような専門データベースに当たっていた作業が、チャットで完結するようになる。
あと実はこれが隠れた本命かもしれない、と思っているのが コードレビューの代替。「このアルゴリズムの計算量を見せて」「O(n log n) と O(n²) を同じ入力で比較して」といった用途。アルゴリズム学習の文脈で、Gemini が動くビジュアルで返してくれるなら、AtCoder や LeetCode の解説記事を読むより理解が速い可能性がある。
微妙な点も正直に書いておく
全部が魔法のように動くわけではない。実際に触って気になった点。
精度は期待しすぎない。 物理シミュレーションは「それっぽく動く」が、本格的な研究用途には耐えない。二重振り子のカオス挙動は再現できても、実測データとの擦り合わせには使えない。あくまで「直感を掴む」ツールだ。
出力は使い捨て。 生成されたビジュアライゼーションは基本的にチャット内でしか触れない。コードを取り出してローカルで動かすことはできるが、HTML/JS ベースの独自フォーマットなので、既存の Jupyter Notebook や Observable に流し込むにはひと手間かかる。
重い処理は遠慮なく拒否する。 「10 万点のデータで散布図を描いて」と頼むと、途中で「この規模は苦手なので 1000 点に間引きました」と返してくる。業務データをそのまま可視化する用途には向かない。
Ultra との差分がよく見えない。 現時点で Pro と Ultra で同じプロンプトを投げると、ほぼ同じ出力が返ってくる。Ultra 側には今後差別化ポイントが追加されるはずだが、現時点では Pro で十分ということになる。
この機能が揃うと見えてくる未来
少し話を広げる。AI チャットが「動くビジュアル」を返せるようになった意味は、単に見栄えの問題ではないと思っている。
「読む AI」から「実験する AI」への転換点だ。従来 ChatGPT や Gemini は文章の生成機でしかなく、ユーザーは文字を読んで頭の中でイメージを作る必要があった。今回のアップデートで、ユーザーは AI の出力を直接いじって挙動を確かめられるようになる。これは学習効率の観点で相当大きい。
この延長線上で想像できるのが、AI と一緒にシミュレーションを作り込むワークフローだ。ビジネス側の人が「この条件を変えたらどうなる?」と口頭で指示し、AI が即座にモデルを更新してビジュアルを返す。エンジニアを介さずに What-if 分析ができる。
Gemini 3.1 Pro の推論能力と組み合わせれば、NotebookLM で論文を読ませ、そこから動くモデルを生成する、といった流れも射程に入る。「論文を読んでから手を動かす」までの距離が、ほぼゼロになる可能性がある。
もちろん、実現には精度と出力の取り回しやすさという課題が残っている。それでも「チャットの返答を触れる」という体験を知ってしまうと、もう静的な出力には戻れない、と感じるくらいのインパクトはあった。
使い始め方
Gemini アプリ(Web・iOS・Android)で、モデル選択を「Pro」に切り替え、プロンプトに「見せて」「視覚化して」「シミュレーションして」といった語を含めるだけで起動する。Google アカウントの AI Pro プラン(月 $19.99)以上が必要で、現在グローバル展開中。順次全言語に広がっている。
既存の Gemini 利用者なら追加料金は不要。Gemini Ultra を月 $200 払って使っていた層にとっては、この機能目当てで Ultra に居残る理由が 1 つ減ったことになる。Pro への集約を検討してもいい時期かもしれない。
Claude の Interactive Visualizations と併用してみると、それぞれ得意分野が違うのがよくわかる。Claude は「データ分析 → グラフ」の流れが強く、Gemini は「物理・化学・教育コンテンツ」に強い。AI チャット選びの基準に「どんなビジュアライゼーションを返せるか」が加わる時代がきた、と言っていいと思う。
関連記事
Chromeの右側パネルに「Skills」が生えた — Geminiに覚えさせたプロンプトを全タブ横断で再実行
Google Chrome の Gemini サイドパネルに保存プロンプトを再実行できる Skills 機能が追加。複数タブ横断で動作し、日々の調べ物や比較作業を1クリック化。仕組みと制限を解説する。
Google Nestがようやく「最後まで聞いてくれる」ようになった — Gemini for Home 4月アップデート
Google Nest向けGemini for Homeが4月にアップデート。発話の途中で遮られる問題、プレイリスト認識、複雑なリスト操作、そして新しいペアレンタルコントロールの中身を整理する。
ロボットが「計器を読む」精度が23%から93%に跳ねた——Google DeepMindの新モデルが示した境界
Google DeepMindが2026年4月14日にリリースしたGemini Robotics-ER 1.6を解説。空間理解・計器読み取り・Boston Dynamics Spot連携の中身と、エンボディドAIの現在地。