Cloudflare 推出 Agent Readiness Score 后,网站运营真正该补的不是流量,而是 Agent 可读性
Cloudflare 推出 Agent Readiness Score 后,网站运营真正该补的不是流量,而是 Agent 可读性
先说结论
Cloudflare 这次推出 Agent Readiness Score,真正重要的不是又多了一个“网站评分工具”,而是它把一件很多站长、内容团队、开发团队还没系统面对的事讲明白了:接下来网站不只要给人看、给搜索引擎抓,还要开始给 AI Agent 读、调、用,甚至完成认证、调用和交易。
我的判断是:这条方向短期很新,中期很硬,置信度高。原因不是概念热,而是 Cloudflare 这次同时给了三层东西:官方评分工具、Cloudflare Radar 的互联网级采用率数据、以及它自己把文档站改造成“更适合 Agent 使用”的实践样板。这已经不是趋势判断,而是在往基础设施阶段走。
这件事的核心问题
过去做网站优化,大家熟悉的是两条线:
- 对人类用户,要更快、更清晰、更容易转化;
- 对搜索引擎,要有 sitemap、robots、canonical、结构化信息。
但 AI Agent 不是传统浏览器,也不是传统搜索爬虫。
它们会带着目标来:找文档、读接口、判断是否能登录、确认能不能调工具、能不能拿到更适合机器消费的内容格式,最后决定要不要继续调用你的站点。
如果网站只会输出“给人看的网页”,却没有给 Agent 的发现层、内容层、权限层和协议层,那么结果通常不是 Agent 完全访问不了,而是能访问,但访问成本很高、准确率很低、上下文消耗很大。这会直接影响三个现实结果:
- 你的内容会不会被 Agent 正确理解;
- 你的产品会不会进入 Agent 的默认调用链;
- 未来来自 Agent 的流量、转化和支付入口,能不能先吃到第一波。
关键机制拆解
1)Cloudflare 先把“Agent SEO”从玄学变成了可量化问题
Cloudflare 在 4 月 17 日发布的官方博客里,最关键的一步不是喊口号,而是直接上线了 isitagentready.com。它把“网站对 Agent 是否友好”拆成多个可检查维度,而不是继续停留在抽象讨论。
从工具页面可以看到,它至少会检查 5 类能力:
- Discoverability:robots.txt、sitemap、Link headers 这些发现能力;
- Content Accessibility:是否支持更适合机器读取的 Markdown content negotiation;
- Bot Access Control:有没有 AI bot 规则、Content Signals、Web Bot Auth;
- Protocol Discovery:MCP Server Card、Agent Skills、API Catalog、OAuth discovery 等协议发现;
- Commerce:x402、UCP、ACP 这类面向 agentic commerce 的支付与交易能力。
本质上,Cloudflare 是在做一件很像 Lighthouse 的事:把“以后要补的基础设施”提前变成可以打分、可以排优先级、可以持续优化的工程问题。
2)Radar 数据说明:绝大多数网站其实还没准备好
Cloudflare 不是只做了一个 demo 工具,它还在 Radar 里用新数据集去看整个互联网的采用情况。按照官方博客,Cloudflare Radar 扫描了 20 万个高访问域名,并过滤掉对 agent readiness 不太重要的类别,重点看企业、出版商、平台类站点。
结果并不意外,但很有杀伤力:
- 78% 的网站有 robots.txt,但大多数仍然是为传统搜索引擎写的,不是为 AI Agent;
- 只有 4% 的网站在 robots.txt 里声明了 AI 使用偏好(Content Signals);
- 只有 3.9% 的网站能通过
Accept: text/markdown更自然地向 Agent 提供 Markdown; - MCP Server Cards、API Catalog 这类新标准,在样本里加起来只出现在不到 15 个站点上。
这说明一个反直觉点:今天很多人觉得“网站对 AI Agent 友好”还很远,但恰恰因为整体采用率还低,先补的人反而更容易拿到结构性优势。就像早期移动端适配、早期 SEO、早期 API-first 一样,前期看着像额外成本,后期会变成默认门槛。
3)真正的分水岭不是能不能被抓,而是能不能被低成本正确使用
很多团队现在对 Agent 的理解还停在“反正它能看网页”。这句话只对了一半。
Agent 能看网页,不等于它愿意高效使用你的站。
如果一个站点:
- 没有明确的发现入口;
- 没有机器友好的内容格式;
- 没有协议层声明工具和权限;
- 没有对 AI crawler / assistant / training bot 做区分;
那么 Agent 依然可能访问,但会出现三个问题:
- 成本高:需要把整页 HTML 连同导航、页脚、装饰信息一起吞进去;
- 错误多:旧内容、重复内容、非 canonical 页面容易被误读;
- 动作弱:读得懂,不代表知道怎么认证、怎么调用、怎么交易。
Cloudflare 这次把这些问题打散成标准项,实际上是在告诉网站运营者:下一轮优化不是“多写一点 AI 文案”,而是把机器可读层补齐。
4)Cloudflare 自己给了一个很实用的样板:文档站先改造成 Agent 友好
Cloudflare 在博客里还提到,它最近重做了自己的开发者文档,让它成为更 agent-friendly 的文档站,并且能让 AI 工具以更快、成本更低的方式回答问题。
再结合它的 Agents 文档,你会更容易理解为什么这件事不是空谈。
Cloudflare Agents 文档里强调的不是“聊天机器人壳子”,而是一个真正可运行的 Agent 平台:
- Agent 有状态,不是一次请求后就失忆;
- 能调模型,也能调工具;
- 能做 human-in-the-loop 审批;
- 能排程、能浏览网页、能暴露 MCP;
- 能跑在 Durable Objects 这种带状态的微服务模型上。
一旦平台侧开始支持这种长期运行、可浏览、可调用、可交易的 Agent,网站侧就必须回答一个问题:你到底想让这些 Agent 如何发现你、如何读取你、如何调用你、如何被你约束。
5)同一天发布的 Redirects for AI Training,说明 Cloudflare 在补“治理层”
同一天 Cloudflare 还发布了 Redirects for AI Training。这个功能的核心不是拦截一切 AI crawler,而是把已有的 canonical tag 直接变成面对“已验证 AI 训练爬虫”的 301 重定向。
这背后的信号非常重要:
- 过去站长主要靠
noindex、canonical、deprecated banner 去提醒“旧内容别看”; - 但 Cloudflare 观察到,AI training crawlers 并不会可靠地遵守这些“建议性信号”;
- 所以它开始把“建议”升级为“强制 HTTP 语义”。
这意味着 Agent-ready 不只是“更方便被读取”,还包括“你怎样让机器读对版本、走对路径、别学错内容”。
两个常见误区
误区一:这只是 SEO 的新包装
不完全是。
SEO 解决的是“能不能被发现、能不能被排序”;Agent readiness 解决的是“发现之后,机器能不能继续低成本完成理解、认证、调用与交易”。两者有重叠,但不是一回事。
误区二:等标准稳定了再做也不晚
这也未必。
像 robots、sitemap、Markdown negotiation、canonical、内容信号这些层,很多本来就是低成本补丁。真正等到 Agent 流量和 agentic commerce 明显放量时,再回头补基础层,往往会更贵,因为那时你不是做优化,而是在补债。
案例 / 类比
可以把这件事类比成两个时代的切换。
- 在搜索时代,网站要学会“让搜索引擎找到我”;
- 在 Agent 时代,网站要学会“让 Agent 能代表用户完成任务”。
前者的关键是索引,后者的关键是执行闭环。
如果说过去的网站优化像是在给搜索引擎准备菜单,那么现在的网站优化更像是在给 Agent 准备一套操作手册:入口在哪、正文在哪、接口在哪、权限怎么拿、内容哪一页才是最新版、机器到底能不能继续往下走。
对你的实际影响
- 内容站 / 博客:要开始重视 Markdown、canonical、一致性内容输出,不然 Agent 可能一直抓到旧稿、碎片页和高噪声 HTML。
- SaaS / 开发者平台:MCP、API Catalog、OAuth discovery 这些协议层会越来越重要,决定你能不能进入 Agent 工具链。
- 电商 / 交易平台:如果 agentic commerce 成形,今天没有机器可发现、可授权、可支付的能力,明天就很难接住 Agent 带来的转化。
- 小团队站长:不一定要一步到位,但至少要先把 robots、sitemap、canonical、内容格式这些便宜且通用的层补好。
可执行建议
- 先把网站当成“给机器读的产品”重新审一次,不要只看视觉层。
- 优先补低成本基础项:robots.txt、sitemap、canonical、一致的主域和内容版本。
- 对文档和知识内容,尽快增加更适合 Agent 消费的 Markdown 或结构化输出。
- 如果站点有登录、接口或工具能力,开始评估 OAuth discovery、API Catalog、MCP 这类协议发现层。
- 对旧文档、旧落地页、旧版本说明,建立“人类可看 + 机器不误读”的重定向与 canonical 规则。
风险与不确定性
这件事很重要,但也要避免过度兴奋。
第一,标准还在早期,很多协议未必会按今天的形态长期存在。
第二,不同行业吃到红利的速度会不同,文档站、SaaS、内容站会比纯展示型站点更快感受到压力。
第三,Agent-ready 不等于一定会有流量和转化,它只是让你具备被未来调用的资格。
第四,平台规则会持续变化,今天是内容发现和访问控制,明天可能会更强调身份、支付和调用结算。
一句话复盘
Cloudflare 这次真正发布的,不只是一个 Agent Readiness 评分页,而是在提醒所有网站运营者:下一轮网站竞争,开始从“人能不能用”升级到“Agent 能不能低成本读懂、调通、并代表用户完成动作”。
参考来源:
- Cloudflare Blog(2026-04-17):Introducing the Agent Readiness score. Is your site agent-ready?
- Is Your Site Agent-Ready? 官方工具页
- Cloudflare Docs:AI Crawl Control / Redirects for AI Training
- Cloudflare Docs:Agents