FlowTune Media

PikaStream 1.0 — AIの「自分」がGoogle Meetに出席する時代、$0.275/分の代理出席は何を変えるか

ある日の午後、Google Meetに自分のアバターが参加し、自分の声で話し、会議のメモを取り、チームメンバーにSlackでフォローアップを送る。自分はその間、別の作業をしている。

これがSFの設定ではなく、2026年4月に実際に動き始めたプロダクトだ。

Pika Labsが4月4日にベータ公開した PikaStream 1.0 は、AIエージェントにリアルタイムの「顔」を与えるための動画生成モデルである。ただの録画ボットではない。自分の外見と声を持つAIアバターが、ビデオ通話に能動的に参加し、会話をし、タスクを実行する。

動画生成AIから「AI分身」へ — Pikaの転換

Pika Labsはもともとテキストから動画を生成するAIツール(pika.art)で知られていた。Stanford AIの博士課程を中退したDemi GuoとChenlin Mengが2023年に創業し、$135M以上を調達。Runwayやklingと並ぶAI動画の主要プレイヤーだ。

2026年に入って、同社は大きな方向転換を行った。バッチ型の動画生成から、「AI Selves(AI分身)」 というコンセプトへの移行だ。新プラットフォーム pika.me では、自撮り動画と声の録音からデジタルクローンを作成し、それを様々なプラットフォームで「自分の代理」として動かせる。PikaStreamは、その分身にリアルタイムのビデオ通話能力を持たせるモデルにあたる。

仕組み — 15秒の録画から会議参加まで

セットアップはシンプルだ。

pika.meで自分の顔と声を登録する。自撮り、短い音声サンプル、パーソナリティに関するいくつかの質問に答えるだけで「AI Self」が完成する。あとはGoogle MeetのリンクをAIエージェントに渡せば、アバターが会議に参加する。

技術的なスペックは以下の通り。

  • フレームレート: 最大24〜30 FPS
  • 解像度: 480p
  • 遅延: 約1.5秒(発話から映像生成まで)
  • 動作環境: 単一のH100 GPU上で稼働
  • ライセンス: Apache 2.0(オープンソース)

開発者向けには、GitHubで公開されている「Skill」をClaude CodeやOpenClawなどのコーディングエージェントにインストールして使う方法もある。joinleavegenerate-avatarclone-voice の4コマンドで制御する設計だ。

できること、そしてできないこと

PikaStreamのAIアバターは会議に「参加する」だけではない。

会話の文脈を記憶し、自然に応答する。会議中にプロジェクトノートを更新したり、データを取得したり、チームメンバーにメッセージを送ったりもできる。会議終了後には自動でノートを生成して共有する。セッション中にアイデンティティデータを変更しても再起動なしで対応する。

ただし、制約もはっきりしている。

対応プラットフォームは Google Meetのみ。ZoomとFaceTimeは「近日対応」とされているが、Microsoft Teamsについてはロードマップに言及がない。解像度は480pで、2026年の水準ではお世辞にも高画質とは言えない。1.5秒の遅延はテンポの速い議論では明らかに気になるだろう。

そして、料金。$0.275/分(約41円/分)。1時間の会議で約$16.50(約2,475円)。毎日のスタンドアップミーティングに使えば月額で数万円になる。代理出席に見合う価値があるかどうかは、その会議の重要度と自分の時間単価次第だ。

「AIが会議に出る」ことの意味

OtterやFireflies、Fathomといった既存の会議AIは、録音・文字起こし・要約を行う「傍聴者」だった。PikaStreamは根本的に違う。AIが発言し、応答し、行動する。受動的なオブザーバーではなく、能動的な参加者だ。

この違いは想像以上に大きい。

たとえば、あるプロジェクトの週次定例が4つあるとする。すべてに自分が出なくても、AI分身が出席して状況を把握し、必要な情報をプロジェクトノートに反映してくれるなら、自分は最も重要な1つの会議にだけ集中できる。残りの3つは「出た」結果だけ受け取ればいい。

あるいは、タイムゾーンが合わない海外チームとのミーティング。深夜に起きて参加する代わりに、AI分身が自分のトーンと判断基準で対応する。翌朝、議事録と対応結果を確認すればよい。

避けて通れない問題 — 顔と声を預けるリスク

正直に言えば、このプロダクトには未解決の問題が山積している。

まず、ディープフェイクのリスク。自分の顔と声のクローンが存在するということは、それが悪用される可能性も意味する。フィッシングや詐欺に使われた場合、被害者は「本人と話していた」と信じてしまうかもしれない。

次に、同意の問題。会議の相手は、自分がAIアバターと話していることを知らされるのか。PikaStreamには参加者への自動通知機能がない。「今話しているのはAIです」と明示するかどうかは、完全にユーザーの判断に委ねられている。

そして、生体データの扱い。顔と声紋は多くの法域で機微な個人情報に分類される。これらをクラウドに預けることの意味を、ユーザーはどこまで理解しているだろうか。

Pika Labsは倫理ポリシーやコンテンツモデレーションを公開しているが、技術の進化速度と法整備のギャップは広がる一方だ。

未来の「出席」の形

PikaStream 1.0は完成品ではない。480pの解像度、Google Meet限定、1.5秒の遅延。まだベータだ。

だが、方向性は明確だ。「会議に出る」という行為が、物理的な在席から切り離される世界が見え始めている。それが良いことかどうかは、使う側のモラルと社会の制度設計にかかっている。少なくとも技術的には、もうその扉は開いた。

pika.me / GitHub (Pika-Skills)

関連記事