[转载] 认知重建:Speckit用了三个月,我放弃了——走出工具很强但用不好的困境
2025 年 AI 编程工具遍地开花,但一个尴尬的现实是:工具越来越强,预期越来越高,落地却越来越难——speckit 的规范流程在企业需求的”千层套路”、海量代码面前显得理想化,上下文窗口频繁爆满让复杂任务半途而废,每次做类似需求还是要花同样的时间因为知识全在人脑里。本文记录了我从踩坑规范驱动工具,到借鉴 Anthropic 多 Agent 协作架构、融合上下文工程与复合工程理念,最终实现边际成本递减、知识持续复利的完整历程。如果你也在”AI 工具明明很强但就是用不好”的困境中挣扎,或许能找到一些共鸣。附带还有新的工作流下人的工作模式转变思考~
起点:规范驱动开发的美好承诺
1.0 团队的 AI Coding 起点
先交代一下背景:我所在的是一个后端研发团队,日常工作以存量项目迭代为主,涉及多个微服务的协作开发。
2024 年中,团队开始尝试 AI 辅助编程。最初的体验是:
短上下文场景效果不错:
- 写一个独立函数、实现一个工具方法——AI 表现良好
- 简单的代码补全、格式化、注释生成——确实提效
但规模化复用始终没起来:
- 当时只有三种触发类型的 rules(早期 rules 时代)
- 虽然提出过”在基础 agent 之上封装 agent”的想法
- 但几个月过去,仍然没有太多人真正动起来
原因分析:
- 规范没有形成共识——每个人对”怎么用好 AI”理解不同
- 对 AI 工程化没有标准认识——不知道该往哪个方向努力
- 提示词复用习惯没建立——好的 prompt 停留在个人经验,没有沉淀
这个困境促使我开始探索外部方案:有没有已经成熟的”AI 编程工程化”方法论?有没有可以直接借鉴的最佳实践?
带着这些问题,我遇到了 speckit 和 openspec。