New Relic 推出 Agentic Platform:企业 AI Agent 真正卡住的,不是模型,而是可观测性

New Relic 推出 Agentic Platform:企业 AI Agent 真正卡住的,不是模型,而是可观测性

New Relic 推出 Agentic Platform:企业 AI Agent 真正卡住的,不是模型,而是可观测性

先说结论

如果你在公司里推进 AI Agent,真正决定能不能上线规模化的,往往不是模型能力,而是可观测性和治理能力。New Relic 这次把 Agent 平台和 OpenTelemetry(OTel)打通,价值就在这里:先把“能看见、能追责、能回滚”补齐,再谈自动化提效。

这件事的核心问题

过去一年,企业对 Agent 的态度很矛盾:

  • 一边想要自动化效率;
  • 一边怕“黑盒执行”带来生产事故。

典型场景是:Agent 能自动改配置、触发任务、调用内部系统,但一旦出现延迟飙升、错误率上升、调用链断裂,团队不知道是模型输出问题、工具调用问题,还是数据管道问题。

本质上,AI Agent 落地已经从“生成质量竞争”转向“系统可控性竞争”。

关键机制拆解

1) 从“单点 Copilot”升级到“面向结果的 Agent 编排”

New Relic 发布的是一个无代码 Agentic 平台,核心不是做通用聊天,而是围绕可观测性场景做结果导向的自动化:

  • 预置 Agent 快速上线;
  • 管理既有 Bot;
  • 在同一套监控语义里处理告警、诊断、修复建议。

这意味着企业不必从零搭 Agent 工作流,而是先在“故障定位/性能优化/风险预警”这类高 ROI 任务上落地。

2) MCP + 外部数据源连接,解决 Agent “只会说不会做”

平台支持 MCP(Model Context Protocol)后,Agent 不再只看单一日志片段,而能联动外部数据源与内部工具。

如果你做过线上排障就会懂:

  • 只读一个系统的日志,结论往往偏;
  • 能跨指标、跨服务、跨环境关联,结论才可执行。

3) OTel 一体化,补上企业最疼的“数据碎片化”

很多团队的现实是:

  • 监控在 A;
  • Trace 在 B;
  • 指标在 C;
  • Agent 还在 D。

New Relic 把 APM 与 OTel 数据流管理拉到统一入口,本质是降低运维复杂度。对大多数团队来说,这比“再上一个更聪明的模型”更直接。

4) 从“模型焦虑”切到“治理闭环”

企业真正担心的是:

  • 谁批准了 Agent 的动作?
  • 出问题谁追责?
  • 能不能回放与审计?

Agent 平台化的趋势,实质是给企业一个治理框架:权限边界、执行记录、异常回滚、跨团队协作。

两个常见误区

  • 误区 1:Agent 平台=又一个聊天入口。
    不是。企业买单的是稳定性、审计和 MTTR(平均修复时间)下降,不是聊天体验。

  • 误区 2:先上最强模型,再补可观测性。
    顺序反了。没有观测和治理,模型越强,错误动作的影响半径反而更大。

案例/类比

把 Agent 想成“初级 SRE 值班员”:

  • 没有监控面板时,它只能凭感觉猜;
  • 有了统一指标、链路、日志和权限策略,它才能在可控范围内执行。

再直白一点:Agent 不是“更聪明的脚本”,而是“接入生产系统的执行者”。执行者要先纳入治理,再谈提效。

对你的实际影响

  • 个人开发者:从今天开始,做 Agent Demo 时就要带最小监控与回滚,不然很难进团队正式流程。
  • 小团队:优先做“高频故障自动诊断”而不是“大而全自动化”,先拿可量化收益。
  • 企业团队:2026 年的竞争点会从“谁先接入 LLM”转到“谁先形成 Agent 治理标准件”。

可执行建议

  • 先选 1 个高频、低权限风险场景(如告警分诊)做 Agent 试点。
  • 为每个 Agent 定义三层边界:可读数据、可执行动作、需要人工确认的操作。
  • 把 OTel 指标、Trace、日志统一到一处查看,减少跨系统排障时间。
  • 设立“失败预算”:每周允许多少次误触发,超过阈值自动降级到人工。
  • 上线前做一次“故障演练”:模拟错误调用链,验证审计与回滚是否真可用。

风险与不确定性

  • 市场上 Agent 平台同质化严重,长期壁垒取决于生态集成深度,不是功能列表长度。
  • 无代码平台降低门槛的同时,也可能让“治理错觉”扩大:看起来有流程,不等于流程可靠。
  • 不同企业的数据合规要求差异大,跨区域/跨部门场景仍有落地摩擦。

一句话复盘

New Relic 这次的信号很清晰:企业 AI Agent 进入“基础设施阶段”,下一轮胜负手是可观测性 + 治理闭环,而不是再拼一次模型参数。

[[AI Agent治理]] [[OpenTelemetry实践]] [[企业自动化落地]]

Read more

Cloudflare Shared Dictionaries 现在值得试吗?我按官方 demo 跑了一次,先给频繁发版团队一个判断

Cloudflare Shared Dictionaries 现在值得试吗?我按官方 demo 跑了一次,先给频繁发版团队一个判断

Cloudflare Shared Dictionaries 现在值得试吗?我按官方 demo 跑了一次,先给频繁发版团队一个判断 如果你的网站或 Web 应用每天会发很多次前端 bundle,而且每次改动都不大,那么截至 2026-04-29,Cloudflare Shared Dictionaries 已经值得进测试名单,但还不值得当成“所有站点都该立刻上的通用优化项”。它真正解决的不是传统 gzip / Brotli 不够强,而是“你明明只改了一小段配置,用户却要重新下载整包”的高频发版浪费。 我这轮没有只看 Cloudflare 的发布文。我直接按官方 demo 给的 curl 流程跑了一次 canicompress.com:同一类约 93KB 的 JavaScript 资源,普通 gzip 传输了 22,423B,带共享字典的

By One AI
OpenAI Privacy Filter 适不适合拿来做脱敏 Web 应用?我实测后给出的判断

OpenAI Privacy Filter 适不适合拿来做脱敏 Web 应用?我实测后给出的判断

OpenAI Privacy Filter 适不适合拿来做脱敏 Web 应用?我实测后给出的判断 Article type: take 我先说结论:如果你要做的是文档高亮审阅、截图脱敏,或者“把一段敏感文本变成可分享的脱敏版本”这类入口,OpenAI Privacy Filter 已经值得拿来做原型;但如果你要的是可审计、字段级强约束、对中文或行业术语有稳定召回的生产脱敏链路,先别把它当成“一接就上”的成品。 这里说的 OpenAI Privacy Filter,当前准确指的是 Hugging Face Hub 上的 openai/privacy-filter 模型卡 和围绕它做的公开 demo,不是一个“在 OpenAI 控制台里点一下就开的 API 开关”。这个命名边界要先讲清,否则后面的部署、成本和数据路径都会判断错。 我这轮没有只看发布文。

By One AI
Telegram 无代码做 AI Bot?Managed Bots、BotFather 和真实门槛一次讲清

Telegram 无代码做 AI Bot?Managed Bots、BotFather 和真实门槛一次讲清

Telegram 无代码做 AI Bot?Managed Bots、BotFather 和真实门槛一次讲清 Article type: tutorial Voice: operator 如果你在 X 上看到“Telegram 现在支持无代码做 AI Bot”的说法,先别急着把它理解成“一键生成完整 AI Agent”。Telegram 这次真正开放的是 Managed Bots:它让一个管理 bot 可以替用户创建、接管并后续管理新的 bot。 这篇只讲 Managed Bots 这条官方创建与接管链路怎么跑通,不把“模型、知识库、状态管理、计费和运维”混进来。换句话说:这不是“AI bot 全栈教程”,而是“

By One AI
GitHub 的 Python dependency graph 现在更完整了?先按这份清单判断你的 SBOM 盲区还剩多少

GitHub 的 Python dependency graph 现在更完整了?先按这份清单判断你的 SBOM 盲区还剩多少

GitHub 的 Python dependency graph 现在更完整了?先按这份清单判断你的 SBOM 盲区还剩多少 Article type: tutorial Voice: operator 我先拿一个最小 Python 项目跑了一遍:requirements.txt 里只有一行 requests==2.32.3,但实际解析出来的安装树里,除了 requests,还会带出 charset-normalizer、idna、urllib3、certifi 这 4 个间接依赖。也就是说,如果你的视角还停在 manifest 层,SBOM 往往从第一步就已经不完整了。 先说结论 如果你的团队主要维护 Python 服务、内部工具或自动化脚本库,现在值得重新看一眼 GitHub 的 Python

By One AI
Follow @Fuuqius