AI 编程框架的约束竞赛:Superpowers、GSD、gstack
当所有人都声称自己解决了 AI 编程的「失控」问题时,真正的失控才刚刚开始。 2026 年 3 月,AI 编程框架的竞争进入了一个诡异的阶段。Superpowers 用「技能强制」约束过程,GSD 用「状态机」约束环境,gstack 用「角色分工」约束视角,OpenAI 的 Harness Engineering 则用「声明式编排」约束意图。它们都在做同一件事:给失控的 Agent 套上缰绳。 但问题在于——约束不是解决方案,而是问题的转移。 据我们了解,Superpowers 在 GitHub 上已积累 3.15 万+ stars1,gstack 发布数天内即获得约 2 万 stars2,Harness Engineering 相关仓库在 3 个月内激增到 107 个3。然而,一位同时深度使用过这四套系统的资深工程师告诉我们:「它们都在解决同一个症状(Agent 失控),却没人敢碰真正的病因(Agent 不理解)。」 这场「约束竞赛」的本质是什么?各家方法的边界在哪里?以及,为什么它们都离「真正的自主工程」还有距离? Superpowers:用「强制技能」约束过程,但谁来约束技能? Superpowers 的思路很直接:既然 Agent 会乱来,那就让它「必须」按规矩来。 这个由 Jesse Vincent(obra)创建的框架4,核心机制是「技能强制触发」——在 SKILL.md 文件中写入类似 “You MUST use this before any creative work” 的指令,Agent 在检测到对应意图时,必须优先触发技能,而非直接编码。截至 2026 年 1 月,它已被 Anthropic 官方接入 Claude Code 插件市场5。 这套机制的本质是「过程约束」。 它强制 Agent 遵循 RED-GREEN-REFACTOR 的 TDD 循环,强制在编码前完成设计文档,强制通过子 Agent 进行代码审查。一位使用 Superpowers 的 Tech Lead 表示:「它确实减少了『拍脑袋编码』的情况,我们的代码规范遵守率从 60% 提升到了 90%。」 ...