Vercelとは違うアプローチ — Cloudflareの「Project Think」が永続実行でAIエージェントの寿命を変える
AIエージェントのフレームワークはもう何十個もある。では、なぜCDN企業のCloudflareがわざわざ独自のランタイムを作ったのか?
答えは「時間」にある。現在の主要フレームワーク——LangChain、CrewAI、Mastra——はどれもリクエスト・レスポンス型の設計だ。ユーザーの入力を受け取り、処理し、結果を返す。数秒から数分の「寿命」が前提になっている。しかし本当に役立つエージェントは、数時間、ときには数日にわたって動き続ける必要がある。「明日の朝もう一度確認して」が通じなければ、エージェントはただの高機能チャットボットでしかない。
Cloudflareが4月に公開したProject Thinkは、その「長く生きるエージェント」を実現するための永続実行ランタイムだ。@cloudflare/thinkパッケージとしてCloudflare Agents SDKに統合されている。
Fibers——クラッシュしても死なない実行単位
Project Thinkの中核が「Fibers」と呼ばれる実行モデルである。
通常のサーバーレス関数は、プロセスがクラッシュすれば状態もろとも消える。Fibersはそうならない。実行中の状態を自動的にチェックポイントし、障害が起きても直前の状態から再開できる。いわばDurable Objectsの上に構築された「壊れないスレッド」だ。
これにより、エージェントは「データベースからレポートを取得 → 分析 → 3時間後に再チェック → 異常があればSlack通知」といった長時間ワークフローを、途中で止まることなく実行できる。タイマーやスケジューラを外部で管理する必要がなく、Fiber自体が「いつ再開するか」を知っている。
Sub-agents——隔離された子エージェント
もう1つの重要な概念がSub-agentsだ。
親エージェントが複雑なタスクを分解し、各サブタスクを独立した子エージェントに委任できる。ここでCloudflareらしいのは、各Sub-agentが専用のSQLiteデータベースと型付きRPCインターフェースを持つ点だ。Durable Objectsの1対1マッピングで管理されるため、子エージェント同士が干渉しない。
たとえば「競合3社のWebサイトを調査して比較レポートを作れ」というタスクなら、親エージェントが3つのSub-agentを生成し、それぞれが独立してブラウジング・分析を行い、結果を親に返す。1つの子エージェントがエラーを起こしても、他の子エージェントには影響しない。
これは単なるマルチエージェントの並列実行ではない。各Sub-agentが独自の永続ストレージを持つことで、「途中まで調べた結果」が消えないのが大きい。
サンドボックス実行とPersistent Sessions
Project Thinkには、LLMが生成したコードを安全に実行するためのサンドボックスも組み込まれている。Dynamic Workersと呼ばれる仕組みで、隔離環境内でコードを走らせ、ホスト環境を汚染しない。
Persistent Sessionsも見逃せない。会話履歴をツリー構造で管理し、分岐(フォーク)、圧縮、全文検索に対応する。チャットの文脈が100ターンを超えても、必要な情報を効率的に参照できる設計だ。
Vercelとの設計思想の違い
同じ「エージェントインフラ」でも、VercelのWorkflowsとProject Thinkは方向性がかなり異なる。
Vercelは既存のNext.jsエコシステムの延長線上にエージェント機能を載せている。AI SDKとVercel Workflowsの組み合わせで、フロントエンド開発者が慣れた環境のままエージェントを組めるのが強みだ。UIとの統合がスムーズで、プロトタイピングが速い。
一方、Project Thinkはインフラ側から設計している。Durable Objects、Workers、R2といったCloudflareの分散基盤の上に、エージェント専用の抽象レイヤーを重ねた形だ。UIは開発者が自分で用意する前提で、その代わりに永続実行・障害復旧・Sub-agentの隔離といった「本番運用で必要になる機能」が最初から入っている。
雑に言えば、Vercelは「エージェントを素早く作る」ためのもの、Project Thinkは「エージェントを落ちずに動かし続ける」ためのものだ。どちらが優れているという話ではなく、レイヤーが違う。
気になる点
まだ設計が若い。ドキュメントは充実してきているが、プロダクション事例が公開されている数は少なく、大規模運用での安定性は未知数だ。
Cloudflareエコシステムへのロックインも無視できない。FibersはDurable Objects前提の設計であり、AWSやGCPへの移植は事実上不可能だろう。「とりあえず試す」には向いているが、基盤として採用するなら長期的なベンダー依存を覚悟する必要がある。
LangGraphやCrewAIほどのコミュニティの厚みもまだない。ツール連携やプラグインの充実は今後の開発者の反応次第だ。
誰が使うべきか
Project Thinkが刺さるのは、「エージェントを作る」フェーズを過ぎて「エージェントを安定運用する」段階に入った開発者だ。プロトタイプならLangChainやMastraで十分。しかし、障害復旧、長時間実行、Sub-agentの隔離管理が必要になった時点で、Project Thinkの設計思想が効いてくる。
AIエージェントの競争が「誰が賢いか」から「誰が落ちないか」に移りつつある。Cloudflareは、その次のフェーズに先回りしたように見える。
関連記事
あなたのサイト、AIエージェントから「見えない」かもしれない — Cloudflareの無料診断で確かめる
Cloudflareが公開した無料ツール「Is Your Site Agent-Ready?」の使い方と診断結果の読み方。96%のサイトがAI対応不足という現実と、今すぐできる改善策を解説する。
AIエージェントに「インフラごと」渡す — Cloudflare Agents Weekで発表された5つの基盤
Cloudflare Agents Weekの5製品を解説。AIエージェント本番運用に必要な基盤が一社で揃った。
AIに同じバグを8通り直させて、一番いい答えだけ残す — Grok Buildの仕組みと現在地
xAI開発中のGrok Buildを解説。8並列AIとArena Modeで解法を自動評価するCLIツールの全容。