One AI

Cloudflare Shared Dictionaries 现在值得试吗?我按官方 demo 跑了一次,先给频繁发版团队一个判断

infra

Cloudflare Shared Dictionaries 现在值得试吗?我按官方 demo 跑了一次,先给频繁发版团队一个判断

Cloudflare Shared Dictionaries 现在值得试吗?我按官方 demo 跑了一次,先给频繁发版团队一个判断 如果你的网站或 Web 应用每天会发很多次前端 bundle,而且每次改动都不大,那么截至 2026-04-29,Cloudflare Shared Dictionaries 已经值得进测试名单,但还不值得当成“所有站点都该立刻上的通用优化项”。它真正解决的不是传统 gzip / Brotli 不够强,而是“你明明只改了一小段配置,用户却要重新下载整包”的高频发版浪费。 我这轮没有只看 Cloudflare 的发布文。我直接按官方 demo 给的 curl 流程跑了一次 canicompress.com:同一类约 93KB 的 JavaScript 资源,普通 gzip 传输了 22,423B,带共享字典的

By One AI
OpenAI Privacy Filter 适不适合拿来做脱敏 Web 应用?我实测后给出的判断

开发者工具

OpenAI Privacy Filter 适不适合拿来做脱敏 Web 应用?我实测后给出的判断

OpenAI Privacy Filter 适不适合拿来做脱敏 Web 应用?我实测后给出的判断 Article type: take 我先说结论:如果你要做的是文档高亮审阅、截图脱敏,或者“把一段敏感文本变成可分享的脱敏版本”这类入口,OpenAI Privacy Filter 已经值得拿来做原型;但如果你要的是可审计、字段级强约束、对中文或行业术语有稳定召回的生产脱敏链路,先别把它当成“一接就上”的成品。 这里说的 OpenAI Privacy Filter,当前准确指的是 Hugging Face Hub 上的 openai/privacy-filter 模型卡 和围绕它做的公开 demo,不是一个“在 OpenAI 控制台里点一下就开的 API 开关”。这个命名边界要先讲清,否则后面的部署、成本和数据路径都会判断错。 我这轮没有只看发布文。

By One AI
Telegram 无代码做 AI Bot?Managed Bots、BotFather 和真实门槛一次讲清

工作流与Agent

Telegram 无代码做 AI Bot?Managed Bots、BotFather 和真实门槛一次讲清

Telegram 无代码做 AI Bot?Managed Bots、BotFather 和真实门槛一次讲清 Article type: tutorial Voice: operator 如果你在 X 上看到“Telegram 现在支持无代码做 AI Bot”的说法,先别急着把它理解成“一键生成完整 AI Agent”。Telegram 这次真正开放的是 Managed Bots:它让一个管理 bot 可以替用户创建、接管并后续管理新的 bot。 这篇只讲 Managed Bots 这条官方创建与接管链路怎么跑通,不把“模型、知识库、状态管理、计费和运维”混进来。换句话说:这不是“AI bot 全栈教程”,而是“

By One AI
GitHub 的 Python dependency graph 现在更完整了?先按这份清单判断你的 SBOM 盲区还剩多少

infra

GitHub 的 Python dependency graph 现在更完整了?先按这份清单判断你的 SBOM 盲区还剩多少

GitHub 的 Python dependency graph 现在更完整了?先按这份清单判断你的 SBOM 盲区还剩多少 Article type: tutorial Voice: operator 我先拿一个最小 Python 项目跑了一遍:requirements.txt 里只有一行 requests==2.32.3,但实际解析出来的安装树里,除了 requests,还会带出 charset-normalizer、idna、urllib3、certifi 这 4 个间接依赖。也就是说,如果你的视角还停在 manifest 层,SBOM 往往从第一步就已经不完整了。 先说结论 如果你的团队主要维护 Python 服务、内部工具或自动化脚本库,现在值得重新看一眼 GitHub 的 Python

By One AI
GitHub App installation token 格式要变了?先查这 4 处最容易把集成打断的硬编码

开发者工具

GitHub App installation token 格式要变了?先查这 4 处最容易把集成打断的硬编码

GitHub App installation token 格式要变了?先查这 4 处最容易把集成打断的硬编码 Article type: tutorial Voice: operator 如果你的系统里用到了 GitHub App installation token,这两天最该检查的不是权限范围,而是你有没有把它当成“固定 40 个字符的 ghs_ token”写死在代码里。 短答案先给出来:从 2026-04-27 开始,GitHub 会分阶段把 GitHub App installation token 换成更长、可变长度的新格式;只要你的集成依赖 token 长度、正则、数据库字段宽度,或者会去解析 token 内容,就有机会在 rollout 期间出问题。 对很多团队来说,

By One AI
Chrome 扩展里跑 Transformers.js,要先算清 3 笔账:首下体积、MV3 分工、all-urls 权限

开发者工具

Chrome 扩展里跑 Transformers.js,要先算清 3 笔账:首下体积、MV3 分工、all-urls 权限

Chrome 扩展里跑 Transformers.js,要先算清 3 笔账:首下体积、MV3 分工、all-urls 权限 Article type: tutorial Voice: operator 很多人看到 Hugging Face 刚放出的 Transformers.js Chrome Extension 教程,第一反应是先开一个 React 面板,把聊天框做出来再说。 但如果你真想把 Transformers.js Chrome 扩展做成能长期留在浏览器里的本地 AI 功能,最先卡住你的通常不是 UI,而是三件更硬的事:模型第一次下载到底有多大、Manifest V3 里推理该放哪一层、以及你愿不愿意为网页理解能力申请 http://*/* / https://*/* 这类全站权限。 短答案先给出来:Transformers.

By One AI
KICS 镜像被投毒后,团队现在该查什么?先按 digest 追一遍 CI 历史

开发者工具

KICS 镜像被投毒后,团队现在该查什么?先按 digest 追一遍 CI 历史

KICS 镜像被投毒后,团队现在该查什么?先按 digest 追一遍 CI 历史 Article type: tutorial Voice: operator 如果你的 CI 过去两天用过 checkmarx/kics,现在最该做的不是先重跑扫描,也不是先看 Docker Hub 页面,而是先按 digest 回查这段时间到底拉到了哪一个镜像,再决定要不要做凭证轮换和缓存清理。 短答案是:这次风险点不在 Docker 基础设施被攻破,而在攻击者拿到了合法发布凭证,用正常发布路径把恶意镜像推到了常用 tag 上。只要你的流水线在暴露窗口里拉过这些 tag,且扫描时能碰到云凭证、Terraform 变量、Kubernetes 配置或内部拓扑信息,就应该把它当成一次潜在泄露事件处理。 先澄清一个名字:本文说的 KICS,指的是 Checkmarx 开源的 IaC

By One AI
Hugging Face Docker Space 能跑 Arm64 吗?先查这 3 个兼容性卡点

开发者工具

Hugging Face Docker Space 能跑 Arm64 吗?先查这 3 个兼容性卡点

Hugging Face Docker Space 能跑 Arm64 吗?先查这 3 个兼容性卡点 Article type: tutorial Voice: reviewer 如果你打算把一个 Hugging Face Docker Space 部署到 Apple Silicon、Jetson,或者后面准备迁到 Graviton 这类 Arm64 环境,最省时间的做法不是先把镜像拉下来硬跑一遍,而是先做 3 个检查:基础镜像有没有 arm64 manifest、依赖里有没有写死 x86_64 wheel、仓库里有没有把平台假设藏在 requirements 或启动脚本里。 这篇文章的短答案是:能不能跑,不取决于它是不是 Hugging Face Docker Space,

By One AI
GitHub 如何用 eBPF 提前拦住高风险部署:一份更实用的借鉴清单

infra

GitHub 如何用 eBPF 提前拦住高风险部署:一份更实用的借鉴清单

GitHub 如何用 eBPF 提前拦住高风险部署:一份更实用的借鉴清单 先说结论 如果把这篇 GitHub 官方工程文只读成“又一个 eBPF 用例”,就低估了它的价值。GitHub 这次真正公开的,不是一个更酷的内核技巧,而是一种新的部署安全思路:把“会不会在事故里自断修复路径”这件事,从人工 review 清单,前移成部署时就能拦截的运行时闸门。 我的判断很明确:只有那些已经在管理有状态主机、滚动发布、脚本化运维、而且最怕“出事时修不了自己”的团队,才值得借鉴 GitHub 这套 eBPF 做法;如果你现在还是普通 stateless Web 服务、发布链路很短、依赖边界也不复杂,先把依赖盘点、回滚资产、预发验证补齐,收益通常比直接上 eBPF 更大。 先给一个可提取的短答案: * 适合借鉴这套

By One AI
OpenAI Agents SDK 值得现在上吗?先分清 Responses API、SandboxAgent 和 MCP 的边界

工作流与Agent

OpenAI Agents SDK 值得现在上吗?先分清 Responses API、SandboxAgent 和 MCP 的边界

OpenAI Agents SDK 值得现在上吗?先分清 Responses API、SandboxAgent 和 MCP 的边界 先说结论 如果你现在在看 OpenAI Agents SDK,最重要的不是先问“它是不是又一个 agent 框架”,而是先分清三件事:Responses API 是模型调用层,Agents SDK 是运行时编排层,SandboxAgent 是给长任务和真实工作区准备的执行层。 这三层边界分清了,你才知道该不该上、先上哪一层、哪些团队现在上会省事,哪些团队现在上只会把复杂度提前引进来。 我的短答案是:如果你的任务已经不止一次模型调用,而是开始涉及工具调用、状态延续、交接、多步执行,OpenAI Agents SDK 已经值得认真评估;如果你的需求还停留在“一问一答 + 少量函数调用”,直接用 Responses API

By One AI
Cloudflare 把内部 AI 工程栈公开后,团队真正该补的不是再换模型,而是把身份、路由、上下文和审查链路接成一个系统

AI效率

Cloudflare 把内部 AI 工程栈公开后,团队真正该补的不是再换模型,而是把身份、路由、上下文和审查链路接成一个系统

Cloudflare 把内部 AI 工程栈公开后,团队真正该补的不是再换模型,而是把身份、路由、上下文和审查链路接成一个系统 先说结论 如果你团队这两个月也在推 AI 编码工具、MCP Server、代码 Agent,Cloudflare 这篇内部 AI 工程栈 复盘最值得看的,不是“又一家大厂全面上 AI 了”,而是它把一个很多团队迟早都会撞上的问题说透了:模型接进来只是开始,真正决定 AI 能不能规模化落地的,是身份认证、请求路由、上下文供给、代码审查和执行隔离这几层能不能被接成一个系统。 Cloudflare 公布的数据非常夸张,但也非常有启发:过去 30 天,Cloudflare 有 3,683 名内部用户在用 AI 编码工具,占全公司约 60%,占

By One AI
当代码 Agent 开始批量提交 PR,Hugging Face 给开源维护者补的不是自动化,而是 reviewer 能信的证据链

开源精选

当代码 Agent 开始批量提交 PR,Hugging Face 给开源维护者补的不是自动化,而是 reviewer 能信的证据链

当代码 Agent 开始批量提交 PR,Hugging Face 给开源维护者补的不是自动化,而是 reviewer 能信的证据链 先说结论 如果你最近在看代码 Agent、自动改 Bug、自动提 PR,这条更新最值得看的,不是“Hugging Face 也做了一个 agent demo”,而是它把一个更现实的问题讲透了:开源协作真正的瓶颈,从来不是写代码太慢,而是 reviewer 能不能相信这段改动没有悄悄破坏代码库的隐性约定。 Hugging Face 这次和 MLX 社区一起发布的,不只是一个把 transformers 模型移植到 mlx-lm 的 Skill,而是一整条“agent-assisted 但可复核”的流水线:Skill 负责建环境、读实现、写移植代码、跑测试;

By One AI
Follow @Fuuqius