2026西湖龙井茶官网DTC发售:茶农直供,政府溯源防伪到农户家
CLAUDE.md 指令的遵循率约为 60-70%。米切尔·哈希莫托在 Ghostty 项目中的 AGENTS.md 文件没有任何空泛的愿景式陈述——每一条目都追溯至智能体实际犯下的错误。请使用“失败到约束”决策树:危险操作归入钩子(Hooks),可重复的工作流归入命令(Commands),风格与规范归入 CLAUDE.md。
两个 CLAUDE.md 文件。同一个项目。不同的哲学:
# ❌ 之前:以指令为主的 CLAUDE.md(典型做法)
# 47 行善意的规则
- “操作生产数据库时要小心。”
- “始终编写测试。”
- “使用 TypeScript 严格模式。”
- “遵循我们的命名规范。”
# Claude 会阅读这些内容,并在 20 万词元的上下文中权衡……遵循率约为 65%。
# ✅ 之后:以失败为主的 CLAUDE.md(哈希莫托方法)
# 12 行,每一行都追溯到具体事件
- “严禁使用 git push --force。请使用 --force-with-lease。”
# 失败案例:2026-03-12,强制推送覆盖了 feature/auth 分支上队友的提交
- “在任何 git commit 之前运行 npm test。无例外。”
# 失败案例:2026-02-28,错误的导入被推送到主分支,持续集成系统在 20 分钟后才捕获
一个文件包含 47 行建议。另一个文件包含 12 行教训。智能体实际上会遵循哪一个?
答案显而易见。12 行的文件每次都胜出,因为每一行都分量十足。每一行的存在都有模型可以评估的具体原因。47 行的文件只是一份愿望清单。而 12 行的文件是一个约束框架。
为什么大多数 CLAUDE.md 文件会失效?
大多数 CLAUDE.md 文件失效,是因为开发者像写职位描述一样去写它们:充满愿景、面面俱到、臃肿不堪。大语言模型不像代码执行函数那样执行指令。它们会在完整的上下文窗口中权衡每条指令。行数越多意味着稀释越严重,从而导致每行指令的遵循率降低。
数据支持这一观点。一项苏黎世联邦理工学院的研究(Gloaguen 等人,2026 年)在 138 个真实的 GitHub 问题上测试了上下文文件,发现由大语言模型生成的智能体配置文件实际上将成功率降低了 0.5-2%,同时将推理成本增加了 20-23%。即使是开发者提供的文件,平均也只能将性能提高约 4%。典型的开发者编写文件平均包含 9.7 个部分,共 641 个单词。
为了 4% 的提升,付出如此多的指令代价,实在太高了。
| 指标 | 200 行的 CLAUDE.md | 40 行的 CLAUDE.md |
|---|---|---|
| 指令数量 | 约 200 条 | 约 40 条 |
| 遵循率 | 约 60-70% | 约 85-90% |
| 维护成本 | 需要每月修剪 | 自我维护 |
前沿大语言模型能够以合理的一致性遵循大约 150-200 条指令。你的 200 行 CLAUDE.md 在计算系统提示词(另外约 50 条指令)之前,就已经超出了这个预算上限。社区基准测试显示,超过 200 行的文件遵循率为 60-70%。这意味着你最重要的规则能否被遵循,简直就像抛硬币一样随机。
什么是米切尔·哈希莫托的 AGENTS.md 方法?
米切尔·哈希莫托(Terraform、Vagrant 以及现在的 Ghostty 的创作者)将 AGENTS.md 视为失败日志,而非指令文件。Ghostty 的 AGENTS.md 中的每一行之所以存在,是因为
免责声明:本文内容来自互联网,该文观点不代表本站观点。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请到页面底部单击反馈,一经查实,本站将立刻删除。