EVMbench 发布后,Web3 团队该立刻改的不是模型,而是审计流程

EVMbench 发布后,Web3 团队该立刻改的不是模型,而是审计流程

EVMbench 发布后,Web3 团队该立刻改的不是模型,而是审计流程

先说结论

如果你在做链上产品,EVMbench 的真正信号不是“某个模型能打 70%”,而是智能合约审计已经进入“人机协作重排期”阶段:先用 Agent 做高覆盖扫描,再把人类审计时间集中在高风险逻辑与经济攻击路径上。这个顺序不改,团队会在下一轮安全竞争里掉队。

这件事的核心问题

过去我们把 AI 当“写代码加速器”,现在它开始变成“攻防能力放大器”。OpenAI 与 Paradigm 联合发布 EVMbench,把能力拆成 Detect / Patch / Exploit 三个模式,并且用本地链上可复现实验去评分。

本质变化是:安全评估不再只看“能不能发现 bug”,而是看能不能端到端完成利用、修复、再验证。这直接影响 Web3 团队的上线节奏和风险预算。

关键机制拆解

1) 评测对象从“代码理解”变成“链上行动能力”

EVMbench 不只让 Agent 读 Solidity,还让它在隔离环境里执行交易、验证状态变化。这比传统静态扫描更接近真实攻击面。

2) 任务设计强调“完整覆盖”,不是抓到一个就停

Detect 模式按漏洞召回率评分,Patch 要求修复后功能不破坏,Exploit 要求可复现资金路径。也就是说,系统在惩罚“只会抓一个点”的工作方式。

3) 工程可复现性被抬到核心位置

Rust harness + 可重放交易 + 隔离容器,让评测可对比、可复核。对团队来说,这意味着你也该把内部审计流程做成可回放资产,而不是一次性人工结论。

4) 攻防边界正在前移

公开结果显示,前沿代理在 exploit 场景进步很快,但 detect/patch 仍不满分。关键变量是:攻击效率提升速度,可能快于防守流程升级速度

两个常见误区

  • 误区一:分数高=可直接上生产审计。 评测强不等于你的协议上下文就安全,尤其是跨合约依赖、权限治理、预言机与清算联动。
  • 误区二:有 AI 审计就能减少人工。 正确做法是“把人工挪到更难的问题”,不是简单砍审计预算。

案例/类比

把 EVMbench 想成自动驾驶测试场:

  • 过去是“会不会开车”(能不能找漏洞)
  • 现在是“能不能在复杂路况里安全到达”(能否从发现到修复到复验闭环)

很多团队已经有“安全工具”,但缺的是“闭环赛道”。这就是为什么同样上了 AI,事故率差异会越来越大。

对你的实际影响

  • 个人开发者: 你需要学会把审计任务拆成可执行脚本,而不是只读报告。
  • 小团队: 你需要建立“预发布安全回归流水线”,把每次漏洞教训沉淀为测试与规则。
  • 企业团队: 你需要把 Agent 审计纳入 SDLC 与上线门禁,形成可审计证据链。

可执行建议

  • 在每次发版前增加“三段式”检查:AI Detect → 人工复核 → AI 回归验证。
  • 给关键合约维护“高风险函数清单”(权限、资金转移、价格依赖、外部调用)。
  • 把历史漏洞转成内部 benchmark,持续对比不同模型/脚手架效果。
  • 预设“失效条件”:当发现跨协议组合风险时,自动升级到人工深审。
  • 为紧急响应准备演练:漏洞披露、暂停开关、补丁发布、用户沟通模板。

风险与不确定性

目前公开基准仍有边界:环境是隔离链而非真实主网,部分任务来自历史漏洞,真实对抗中还有 MEV、时序竞争、跨链桥等复杂变量。

置信度:中高。 趋势判断(Agent 将重塑审计流程)可信度高;具体到某团队风险下降幅度,取决于你是否把流程工程化。

一句话复盘

EVMbench 的价值,不是告诉你“哪个模型最强”,而是提醒你:Web3 安全竞争已经从“工具采购”升级为“审计流程再设计”。

[[智能合约安全自动化]] [[AI Agent 风险治理]]

Read more

Cisco AgenticOps 落地后,企业 IT 团队最该先改的三条运维流程

Cisco AgenticOps 落地后,企业 IT 团队最该先改的三条运维流程

Cisco AgenticOps 落地后,企业 IT 团队最该先改的三条运维流程 先说结论 Cisco 在 2026 年 2 月集中发布 AgenticOps 相关能力后,真正值得关注的不是“又多了一个 AI 名词”,而是 IT 运维开始从‘人盯告警’转向‘机器闭环执行 + 人类审批兜底’。如果你的团队还在用旧的工单链路处理 AI 时代的流量与安全问题,效率和风险都会同时失控。 背景与问题定义 过去一年,企业网络和安全面临的压力在同步上升: * AI 工作负载让数据中心东西向流量更复杂。 * 安全团队既要防传统攻击,又要识别 Agent 调用链的异常行为。 * 观测数据分散在网络、安全、可观测三套系统里,跨域排障成本很高。 Cisco 这次把关键词定成 AgenticOps,本质是在推一个“agent-first 的 IT

By One AI
OpenAI 推出 Codex Security 后,AI 编程团队该把安全流程改成什么样?

OpenAI 推出 Codex Security 后,AI 编程团队该把安全流程改成什么样?

OpenAI 推出 Codex Security 后,AI 编程团队该把安全流程改成什么样? 先说结论 Codex Security 这类安全 Agent 的价值,不是“自动修漏洞”,而是把安全左移做成持续流水线。 如果你的团队已经在用 AI 写代码,现在最该升级的不是模型参数,而是“发现-验证-修复-回归”的工程闭环。 这件事的核心问题 最近 OpenAI 发布 Codex Security(research preview),主打“结合代码上下文做漏洞检测、验证与修复建议”。 很多人第一反应是:又一个 AI 安全扫描器。这个判断只对一半。 真正的变化是: * 过去安全工具多是“规则命中 + 人工分拣”。 * 现在开始变成“上下文理解 + 风险排序 + 修复路径建议”。 * 安全从发布前的一次性动作,转向开发过程中的持续动作。 换句话说,

By One AI
OpenAI 国防协议细节公开后,AI 团队该如何重设“可用性优先”的风险边界

OpenAI 国防协议细节公开后,AI 团队该如何重设“可用性优先”的风险边界

OpenAI 国防协议细节公开后,AI 团队该如何重设“可用性优先”的风险边界 先说结论 OpenAI 国防协议的争议不在“能不能做”,而在“谁来定义可用边界”。如果你的团队已经在用大模型做自动化,这次事件最值得学的一点是:把“政策声明”升级成“可执行的风险开关”,否则产品上线越快,治理成本反而越高。 这件事的核心问题 3 月初,围绕 OpenAI 与美国国防相关合作的公开信息持续增多,随后出现核心岗位人员离职与外界质疑。很多人把它看成价值观争议,但对一线团队来说,本质是另一个问题: * 当模型从“聊天工具”变成“流程执行器”后,使用场景会自然进入高敏感行业。 * 过去靠一段 ToS(服务条款)约束的方式,已经不足以覆盖真实业务链路。 * “是否允许”不再是单点判断,而是按任务、数据、地区、角色动态变化的控制系统。 如果你还把这类问题当作公关事件,那就会错过真正的工程课题。 关键机制拆解

By One AI
Meta 一次放出 4 代自研 AI 芯片:真正变化不在替代英伟达,而在算力议价权

Meta 一次放出 4 代自研 AI 芯片:真正变化不在替代英伟达,而在算力议价权

Meta 一次放出 4 代自研 AI 芯片:真正变化不在“替代英伟达”,而在算力议价权 先说结论 Meta 这次连续规划 MTIA 300/400/450/500 四代自研 AI 芯片,核心不是“立刻摆脱英伟达”,而是用 6 个月一代的节奏,拿回一部分算力成本和供应链主动权。对多数团队来说,这件事释放的信号是:2026 年 AI 基础设施竞争,已经从“买谁的卡”转向“谁能把训练、推理和推荐系统拆成可优化的多芯片组合”。 这件事的核心问题 过去两年,头部公司一边狂买 GPU,一边被三件事卡住: * 成本波动大:高端 GPU 价格和供货节奏都不稳定。 * 场景错配:并非所有任务都需要“最强通用 GPU”

By One AI
Follow @Fuuqius