あなたのサイト、AIエージェントから「見えない」かもしれない — Cloudflareの無料診断で確かめる
Google PageSpeed Insightsを覚えているだろうか。「サイトの表示速度を測って点数をつけてくれるツール」だ。あれのおかげで、世の中のWebサイトは確実に速くなった。
今度はCloudflareが、同じことをAIエージェント対応でやろうとしている。
Is Your Site Agent-Ready? — URLを入力すると、そのサイトがAIエージェントにどれだけ「使いやすいか」を0〜100のスコアで採点してくれる。無料だ。
筆者が自分のサイトを試した結果は、正直かなり低かった。おそらくこの記事を読んでいるサイト運営者���大半も同じだろう。Cloudflareのデータによると、AIの利用意向を明示しているサイトは全体のわずか4%。Markdown形式でのコンテンツ配信に対応しているのは3.9%。つまり96%のサイトは、AIエージェントにとって「読みにくい」状態のままだ。
何をチェックしているのか
スキャンは5つ��カテゴリで行われる。それぞれにpass/failの判定と、修正方法の具体的な指示が出る。
1. 発見可能性(Discoverability)
robots.txtが存在す���か。その中にGPTBot、ClaudeBot、PerplexityBotなどAI固有のボットに対するルールがあるか。サイト��ップは公開されているか。構造化データ(JSON-LD/schema.org)は入っているか。
Webサイトの78%はrobots.txtを持っているが、その大半は従来型のクローラー向けに書かれている。AI専用のルールが入っているサイトは少ない。
2. コンテンツアクセシビリティ
ここが面白い。サーバーが Accept: text/markdown ヘッダー付きのリクエストに対して、Markdownでレスポンスできるかをチェックする。
なぜMarkdownが重要か。AIエージェントがWebページを読むとき、HTMLをそのまま処理すると大量のトークンを消費する。Markdown形式で返せば、1ページあたりのトークン消費を最大80%削減できる。Cloudflare自身のドキュメントサイトでは、Markdown対応後にAIエージェントが正しい回答に到達する速度が66%向上したという。
llms.txt の有無もチェックされる。これはサイトの構造や利用規約をAI向けに要約したファイルだ。
3. ボットアクセス制御
robots.txtに「Content Signals」が含まれているか。これはIETFドラフトの仕組みで、サイト運営者が「AIの学習には使ってよいが、推論には使うな」といった粒度の細かい許可設定を書ける。ai-train(学習デー���向け)と ai-input(推論・グラウンディング向け)を分けて宣言できる。
4. プロトコル検出
ここが最も先進的だ。MCP(Model Context Protocol)のサーバーカード、エージェントスキルのインデックス、APIカタログ(RFC 9727)、OAuthディスカバリ(RFC 8414)が公開されているかを調べる。
率直に言って、現時点でMCPサーバーカードを公開しているサイトは世界で15に満たない。ほとんどのサイトにとって、この項目は「将来に向けた準備」だ。
5. コマース(オプション)
ECサイト向けの項目。x402(HTTP 402ベースのエージェント決済)、GoogleのUCP(Universal Commerce Protocol)、ACP(Agentic Commerce Protocol)への対応をチェックする。ECサイトでない場合はスコアに影響しない。
使い方は簡単。修正指示が秀逸
isitagentready.comにアクセスし、URLを入力するだけ。数秒でスコアと詳細レポートが出る。スコアはBasic、Emerging、Advancedの3段階に分類される。
注目すべきは、各チェック項目の修正指示だ。「何が問題か」「どう直すか」が具体的に書いてあるだけでなく、その修正指示をそのままCursorやClaude Codeに貼り付けて実行できるように設計されている。
診断ツールが問題を指摘し、AIコーディングツールが修正する。この循環が意図的に作られている。
このツール自身がAgent-Readyになっている
面白い仕掛けがある。isitagentready.com自体がMCPサーバーを公開しており、scan_site というツールをStreamable HTTP経由で呼べる。つまり、AIエージェントが「このサイトのAgent Readinessを調べて」とプログラム的にスキャンを実行できる。
エージェントがWebサイトにアクセスする前に、まずそのサイトがエージェント対応かどうかを自動チェックする。その結果に応じてアクセス方法を変える。こういうフローが想定されているわけだ。
今日やるべきこと、来月やるべきこと
すべてのチェック項目にいきなり対応する必要はない。優先度をつけるなら、こうだ。
今日やるべきこと:
- robots.txtにAIボット向けのルールを追加する。GPTBot、ClaudeBot、PerplexityBotへのアクセス許可(または拒否)を明示する
- サイトマップが公開されていることを確認する
- JSON-LDの構造化データを主要ページに入れる
来月までにやるべきこと:
llms.txtを作成し、サイトの概要とコンテンツ構造をAI向けに要約する- Content Signalsで
ai-trainとai-inputの意向を宣言する - Markdown形式でのコンテンツ配信を検討する(これだけでAIエージェントからの利用体験が劇的に変わる)
様子を見ていいこと:
- MCP Server Card、Agent Skills、APIカタログ。これらは標準がまだ固まりきっていない。EC機能やAPI提供がないサイトなら、急ぐ必要はない
Goodhart's Lawに注意
スコアが公開されると、人はスコアを上げること自体が目的になりがちだ。PageSpeed Insightsでも同じことが起きた。スコア100を目指してユーザー体験を犠牲にするサイトが出てきた。
Agent Readiness Scoreも同じリスクを抱えている。MCP Server Cardを形だけ置いても、中身が空ならエージェントにとっては無意味だ。大事なのはスコアの数字ではなく、自分のサイトの読者(人間とAIの両方)にとって何が有益かを考えることだ。
SEOの次はAEO。その入口がここにある
SEO(Search Engine Optimization)からAEO(AI Engine Optimization)へ。この言葉をここ半年で何度も目にするようになった。
AIエージェントがWebを巡回し、ユーザーの代わりに情報を集め、判断し、行動する世界では、サイ��が「AIに読みやすいか」が直接的にトラフィックと売上に影響する。ChatGPTやPerplexityの回答に自分のサイトが引用されるかどうかは、もはや運ではなく、技術的な準備の問題だ。
CloudflareのAgent Readiness Scoreは、その準備の現在地を測る最初のものさしだ。無料で、30秒で結果が出る。まずは自分のサイトを試してみてほしい。
関連記事
ChatGPTに自分のサイトを引用させたい — 「GEO」という新しいSEOとFraseの立ち位置
AI検索に引用されるコンテンツを作る「GEO」とは何か。Fraseが提供するGEOスコア・8プラットフォーム監視・MCP連携の実態と料金を整理する。
Claude Desktopの「OSS版」を名乗るアプリが46のMCPコネクタを内蔵していた — OpenYakの全貌
OpenYakはローカルで動くOSSのAIエージェント。46のMCPコネクタ、20以上のプロバイダー対応、メッセージング統合の実力を解説。
「あの会議で何が決まった?」をAIに聞くだけ — 無料のFathom 3.0が静かに変えること
AI会議ノートFathom 3.0を解説。ボットなし録音、ChatGPT/Claude MCP連携、無料プランの実力、Granolaとの違いまで。会議の記録と活用が変わる。