FlowTune Media

Geminiが3Dモデルを描いて触って動かせるようになった — 月3万円だった機能が全Proに降りてきた

「月の軌道を見せて」と Gemini に頼んだら、文字の説明とフラットな図ではなく、マウスで掴んでぐるぐる回せる 3D シミュレーションが返ってくる。 しかも重力の強さと初速のスライダー付きで。

2026 年 4 月、Google は Gemini アプリ の「インタラクティブ・ビジュアライゼーション」機能を、全 Pro モデル利用者にグローバル展開した。もともとは 2025 年 12 月に月 200 ドルの Gemini Ultra 限定でひっそり先行リリースされていた機能で、事実上 月 3 万円の特典が Pro ($20/月) に降りてきた かたちになる。

正直、これは「追加機能」というよりパラダイムの変化に近い。AI チャットの出力が「読むもの」から「触るもの」に変わる第一歩として、触っておいて損はないアップデートだと思った。

何が生成できるようになったのか

Google の 発表ブログ にある例を追っていくと、ざっくり 3 種類のアウトプットがある。

1 つ目が 3D モデル。カフェインの分子構造を頼むと、原子の配置が 3D で描画され、ドラッグで自由に回転できる。化学系の教科書の図が目の前で立体化するイメージだ。

2 つ目が 物理シミュレーション。「二重振り子の動きを見せて」と聞くと、振り子が実際にアニメーションで動き、さらに「重力」「初速」「減衰係数」のスライダーが並ぶ。数値を動かすと挙動がリアルタイムで変わる。カオス理論の教材が即席で生成される感覚がある。

3 つ目が インタラクティブチャート。データを渡せば、単なる棒グラフではなく、カーソルを重ねると数値がポップアップし、期間や軸を切り替えできるグラフが返ってくる。ブラウザで Python + Plotly を書いて得られる成果物に近い。

トリガーは難しくない。プロンプト内に「show me(見せて)」「help me visualize(視覚化して)」といったフレーズを入れるだけで、Gemini がインタラクティブ出力モードに切り替える。日本語でも「見せて」「可視化して」で問題なく動いた。

なぜ今、このタイミングで Pro に降ろしてきたのか

時系列を整理すると動きがわかりやすい。Anthropic は 3 月に Claude の Interactive Visualizations を全ユーザー向けに提供し、数式やデータから即座に動くグラフやシミュレーションを出せるようにした。OpenAI も同時期に ChatGPT で類似の Canvas 機能を拡張している。

Ultra 限定のままだと Google だけ「高い金を払わないと触れない」という印象になりかねない。Pro に開放したのは、コンシューマ向けの体験競争で取り残されないための防衛的な一手に見える。

一方で、Ultra 利用者からするとメリットが 1 つ減ったわけで、今後 Google が Ultra 向けに何を用意してくるかも気になるところだ。噂レベルでは「自作 Python 実行環境の統合」「複数ビジュアライゼーションの連結」といった方向性が出ている。

実際どこで使えるか

機能紹介だけだと「ふーん」で終わりがちなので、触ってみて「これは刺さりそう」と感じた使い所を挙げておく。

教育・学習。これは文句なしに効く。高校物理の「単振り子」「惑星の軌道」「振動と波」といったトピックは、従来は YouTube で誰かが作った動画を探す必要があった。Gemini なら「共振を見せて」で即席でスライダー付きの教材が出てくる。親が子供に何かを説明する場面で、ホワイトボードの代わりに Gemini を開く未来はかなり現実味がある。

プレゼン資料の叩き台。顧客向け資料で「このキャンペーンの売上推移を見せたい」というとき、Excel と睨めっこする前に Gemini に一度突っ込んで叩き台を作ってもらうと速い。もちろんそのまま使える品質ではないが、「どういう切り口で見せるか」の議論を始めるのに十分だ。

分子や構造の理解。薬剤師・化学系の学生が分子の立体構造を瞬時に確認できるのは大きい。従来 PubChem のような専門データベースに当たっていた作業が、チャットで完結するようになる。

あと実はこれが隠れた本命かもしれない、と思っているのが コードレビューの代替。「このアルゴリズムの計算量を見せて」「O(n log n) と O(n²) を同じ入力で比較して」といった用途。アルゴリズム学習の文脈で、Gemini が動くビジュアルで返してくれるなら、AtCoder や LeetCode の解説記事を読むより理解が速い可能性がある。

微妙な点も正直に書いておく

全部が魔法のように動くわけではない。実際に触って気になった点。

精度は期待しすぎない。 物理シミュレーションは「それっぽく動く」が、本格的な研究用途には耐えない。二重振り子のカオス挙動は再現できても、実測データとの擦り合わせには使えない。あくまで「直感を掴む」ツールだ。

出力は使い捨て。 生成されたビジュアライゼーションは基本的にチャット内でしか触れない。コードを取り出してローカルで動かすことはできるが、HTML/JS ベースの独自フォーマットなので、既存の Jupyter Notebook や Observable に流し込むにはひと手間かかる。

重い処理は遠慮なく拒否する。 「10 万点のデータで散布図を描いて」と頼むと、途中で「この規模は苦手なので 1000 点に間引きました」と返してくる。業務データをそのまま可視化する用途には向かない。

Ultra との差分がよく見えない。 現時点で Pro と Ultra で同じプロンプトを投げると、ほぼ同じ出力が返ってくる。Ultra 側には今後差別化ポイントが追加されるはずだが、現時点では Pro で十分ということになる。

この機能が揃うと見えてくる未来

少し話を広げる。AI チャットが「動くビジュアル」を返せるようになった意味は、単に見栄えの問題ではないと思っている。

「読む AI」から「実験する AI」への転換点だ。従来 ChatGPT や Gemini は文章の生成機でしかなく、ユーザーは文字を読んで頭の中でイメージを作る必要があった。今回のアップデートで、ユーザーは AI の出力を直接いじって挙動を確かめられるようになる。これは学習効率の観点で相当大きい。

この延長線上で想像できるのが、AI と一緒にシミュレーションを作り込むワークフローだ。ビジネス側の人が「この条件を変えたらどうなる?」と口頭で指示し、AI が即座にモデルを更新してビジュアルを返す。エンジニアを介さずに What-if 分析ができる。

Gemini 3.1 Pro の推論能力と組み合わせれば、NotebookLM で論文を読ませ、そこから動くモデルを生成する、といった流れも射程に入る。「論文を読んでから手を動かす」までの距離が、ほぼゼロになる可能性がある。

もちろん、実現には精度と出力の取り回しやすさという課題が残っている。それでも「チャットの返答を触れる」という体験を知ってしまうと、もう静的な出力には戻れない、と感じるくらいのインパクトはあった。

使い始め方

Gemini アプリ(Web・iOS・Android)で、モデル選択を「Pro」に切り替え、プロンプトに「見せて」「視覚化して」「シミュレーションして」といった語を含めるだけで起動する。Google アカウントの AI Pro プラン(月 $19.99)以上が必要で、現在グローバル展開中。順次全言語に広がっている。

既存の Gemini 利用者なら追加料金は不要。Gemini Ultra を月 $200 払って使っていた層にとっては、この機能目当てで Ultra に居残る理由が 1 つ減ったことになる。Pro への集約を検討してもいい時期かもしれない。

Claude の Interactive Visualizations と併用してみると、それぞれ得意分野が違うのがよくわかる。Claude は「データ分析 → グラフ」の流れが強く、Gemini は「物理・化学・教育コンテンツ」に強い。AI チャット選びの基準に「どんなビジュアライゼーションを返せるか」が加わる時代がきた、と言っていいと思う。

関連記事