FlowTune Media

写真1枚から歩ける3D空間を作る — Fei-Fei Li率いるWorld Labsの「Marble 1.1」がやっていること

3D空間をAIで生成する、という話自体は珍しくない。ただ、「写真1枚から歩き回れる3Dワールドを作り、それをダウンロードして別のアプリで使える」となると、話の重みが違ってくる。

World LabsがリリースしたMarble 1.1は、まさにそれをやる。テキスト、写真、動画、パノラマ、さらには粗い3Dレイアウトまで — 入力を受け取って、ナビゲーション可能な3D環境をブラウザ上で生成する。出力はGaussian Splatsとしてエクスポートでき、デスクトップ、モバイル、VRヘッドセットで閲覧できる。

World Labsを率いるのはスタンフォード大学教授のFei-Fei Li。コンピュータビジョンの分野で最も影響力のある研究者の一人で、ImageNetの生みの親として知られる。2024年に同社を創業し、2026年2月にはNVIDIA、AMD、Autodeskらから10億ドルの資金調達を完了している。

1.1で何が変わったか

前バージョンから目立つ改善は3つある。

まず、照明とコントラストの品質向上。生成された空間の光の回り込みがより自然になり、ビジュアルのアーティファクト(ちらつきやテクスチャの崩れ)が減った。地味だが、3D生成において照明は没入感を左右する最も重要な要素の一つだ。

次に、Marble 1.1 Plusで導入された自動拡張機能。シーンが許す限り、モデルが自動的にカバー範囲を広げて、より大きな3Dワールドを1回のパスで生成する。最大5つの「ダイナミックキューブ」まで拡張でき、建物の内部や街並みのような広い空間をカバーしやすくなった。

そして、2026年1月に公開されたWorld API。開発者がプログラム的に3Dワールドを生成し、自分のアプリに埋め込めるようになった。ゲーム、建築ビジュアライゼーション、メタバース系のサービスにとっては大きな話だ。

料金体系

プラン 月額 生成回数 商用利用
Free 無料 4回 不可
Standard $20(約3,000円) 12回 不可
Pro $35(約5,300円) 25回
Max $95(約14,300円) 75回

Marble 1.1の標準生成は1回1,500クレジット。Marble 1.1 Plusは基本1,500クレジットに加え、自動拡張されたキューブごとに300クレジットが追加される従量課金の仕組みだ。

正直なところ、無料プランの4回では「ああこういうものか」と雰囲気を掴むだけで終わる。本格的に使うならProプランからだが、月25回で$35は3D生成AIとしては妥当な価格帯だろう。

他の3Dツールとの違い

3D生成AI自体は増えている。TencentのHunyuan 3Dや、各種のNeRF/Gaussian Splattingツールなどがある。Marbleが異なるのは、「単体オブジェクト」ではなく「空間全体」を生成する点だ。

椅子やキャラクターを1つ作るのではなく、部屋、街、架空のランドスケープといった「歩き回れる環境」を丸ごと生成する。しかもブラウザ上で完結し、特殊なハードウェアは不要。MIT助教のVincent Sitzmannは「コンピュータビジョン分野でこの10年間に積み上がったブレイクスルーを統合・スケールした、非常に印象的な成果」と評している。

一方で、生成される3D空間はまだ完璧ではない。細部のテクスチャが崩れることがあり、特にテキストプロンプトのみでの生成は、写真を起点にした場合と比べて品質にばらつきがある。業務利用するなら、写真やラフな3Dレイアウトを入力として使う方が結果は安定する。

どういう場面で使えるか

即座に思いつくのは3つのシナリオだ。

ゲームのプロトタイピング。 レベルデザインの初期段階で、アートチームが動き出す前にコンセプトの空間を生成し、「この方向性でいくか」の判断材料にする。Gaussian Splatsはそのまま使える品質ではないかもしれないが、空間のスケール感や雰囲気を掴むには十分だ。

建築・インテリアのビジュアライゼーション。 写真やパノラマから3D空間を再構築できるので、物件の内覧ツアーや改装前後のビフォーアフター提示に使える。不動産テックとの相性は良さそうだ。

教育・研修コンテンツ。 歴史的な建造物や危険な作業環境など、「実際に行けない場所」を3Dで再現して疑似体験させる用途。VRヘッドセット対応なので、没入感のある学習教材が比較的低コストで作れる可能性がある。

今後の注目点

World Labsは単なる3Dジェネレーターではなく、「ワールドモデル」を標榜している。現実世界の物理法則や空間的な関係性をAIが理解し、それに基づいて空間を生成・シミュレートするという方向だ。

RunwayのGWM-1やGoogleの研究も同じ方向を向いており、この分野は2026年後半にかけて急速に発展しそうだ。3D生成AIの日本語情報はまだ少ないので、引き続き追っていく。

関連記事