三月的第一个周末,上海张江某栋写字楼的会议室里坐满了人。他们不是来参加什么新产品发布会,也不是为了听某个明星创业者的路演,而是为了学习如何使用一个开源工具——一个可以将自然语言转化为代码、让普通人也能指挥AI完成编程任务的框架。这个叫OpenClaw的工具,在GitHub上已经收获了超过27万颗星星1,在过去两个月里从一个技术社区的小众项目,变成了整个中国AI圈最火热的话题。从北京中关村到深圳南山,类似的聚会几乎每周都在上演:云服务厂商摆出一键部署的展台,模型公司推销着按Token计费的服务包,开发者们热切地交流着提示词工程的心得。这场被称为**“龙虾大会”**的运动,正在以一种近乎狂热的姿态席卷整个行业。
但热闹的背后,一个根本性的问题被有意无意地忽略了:这些大会究竟在解决什么问题?
参会者带着各自的期待而来——有人希望找到下一个创业风口,有人想提升自己的编程效率,也有人单纯被"AI替代程序员"的焦虑驱动。然而,当演讲者们反复演示如何用几句自然语言生成一个待办事项应用,或者如何让AI自动修复简单的代码错误时,细心的观察者会发现,**这些场景与真正复杂的软件工程之间,还隔着一条难以逾越的鸿沟。**那些在舞台上被展示的神奇能力,往往建立在精心设计的demo环境之上;一旦进入真实的业务场景,面对遗留系统的技术债务、模糊的产品需求、严格的合规要求,AI的表现就会迅速退化为一个偶尔能提供代码补全建议的辅助工具。
这种落差并非偶然。
当前的AI编程工具,本质上仍然是基于概率的模式匹配系统。它们在处理常见编程模式、标准库调用、以及有明确边界的任务时表现出色,因为这些场景在训练数据中有充足的样本。但一旦涉及到需要深度领域知识、复杂架构设计、或者跨系统集成的任务,AI就会暴露出理解力的局限。更重要的是,编程从来不只是写代码——它还包括理解业务逻辑、权衡技术方案、与团队协作、以及在约束条件下做出工程决策。这些软技能,恰恰是当前的AI最难以替代的部分。那些在龙虾大会上被反复强调的"生产力提升",很大程度上只是将编码阶段的部分工作自动化,而软件开发的全生命周期中,编码往往只占不到三分之一的工作量。
云服务厂商和模型公司的热情参与,让这场运动变得更加复杂。对他们来说,OpenClaw提供了一个绝佳的切入点:通过简化部署流程、提供托管服务,他们可以将开发者锁定在自己的生态系统中。一键部署听起来很美好,但它也意味着用户将基础设施的控制权交给了平台;Token计费模式看似灵活,但当应用规模扩大时,成本可能会变得难以预测。
这些商业模式的设计,更多地反映了供应商的利益,而非用户的真实需求。
而在大会的演讲台上,模型厂商们轮番展示自家模型的编程能力,试图证明自己比竞争对手更适合这个场景。但这种比拼往往停留在基准测试的分数上,而非真实项目的交付能力。当所有人都急于在这个新兴市场占据一席之地时,关于"这些工具究竟能创造什么价值"的冷静思考反而被边缘化了。
这种过热的状态很难持久。历史经验表明,**技术 hype 的周期通常在六到八周达到顶峰,随后进入冷静期。**龙虾大会也不例外。当最初的兴奋消退,当参会者们回到自己的工位尝试将这些工具应用到实际项目中,他们会发现现实的骨感:AI生成的代码可能需要大量的修改才能运行,自动化的工作流可能在边界情况下崩溃,而那些被承诺的"十倍效率提升"在复杂项目中变得难以兑现。这种幻灭感会迅速传播,媒体的报道会从"革命性的突破"转向"被夸大的期望",投资者的注意力会转向下一个热点。三到八周后,当再有人提起龙虾大会时,语气中可能会带着一丝怀念,更多的是一种"那阵子大家都挺疯狂的"的调侃。
但这并不意味着AI编程工具没有价值。恰恰相反,它们在某些场景下确实能显著提升效率——尤其是在原型开发、学习编程、以及处理重复性编码任务时。问题在于,当前的市场叙事将这些能力过度放大,试图用**“AI替代程序员”**的惊悚标题来吸引眼球,而忽视了工具能力的边界。这种叙事不仅误导了公众,也给行业带来了不必要的焦虑。真正有价值的讨论应该是:在软件开发的全流程中,哪些环节可以被AI增强,哪些仍然需要人类的专业判断;如何在利用AI提升效率的同时,保持代码质量和系统的可维护性;以及,随着这些工具的普及,软件工程师的角色将如何演化。
来自大洋彼岸的一些信号值得我们关注。在AI编程工具的赛道上,Cursor作为目前最成功的创业公司之一,近期明显加快了产品迭代的节奏。从2月到3月,Cursor连续发布了自动化工作流、JetBrains IDE支持、自主计算机控制等多项重大功能2,这种密集的产品发布节奏本身就说明了一些问题:即便是市场领导者,也感受到了来自各方的压力——既有来自大型模型公司的降维打击,也有来自开源社区免费替代品的竞争。
而在模型层面,Anthropic于2026年2月17日发布的Claude Sonnet 4.6展示了更强的代码理解和生成能力3,根据Anthropic的官方数据,该模型在OSWorld计算机使用基准测试中表现优异,在某些场景下甚至超过了此前的Opus 4.5模型。当国外的竞争者在技术和产品层面快速迭代时,国内的大会仍然停留在"如何使用工具"的初级阶段,这种差距本身就值得深思。
更深层的观察是,工具的迭代与底层模型的升级密切相关。
OpenClaw、Cursor这类工具本质上是Agent的落地表现形式,而Agent的能力边界直接受制于底层大模型的能力。当Anthropic这样的模型公司推出更强大的编程能力时,中间层工具必须在产品层面做出回应,否则用户就会直接转向模型原生的解决方案。据业内人士透露,Cursor内部已经将这种状态定义为**“战时模式”**——这并非空穴来风,而是对竞争格局剧变的直接回应。
换言之,工具的演化是模型演化的函数。
没有底层模型的突破,单纯的工具创新很快就会触顶。这也解释了为什么龙虾大会的火热某种程度上是焦虑驱动的——开发者们担心错过下一个风口,服务商们担心被时代抛弃,创业者们则在寻找能够抵御模型公司直接竞争的商业逻辑。
这种困境并非中国独有,但在国内表现得尤为明显。一方面,基础模型的能力与国际顶尖水平仍有差距,这限制了应用层面的创新空间;另一方面,市场的急功近利心态让很少有人愿意沉下心来打磨产品,大家都在追逐短期的热点和概念。当OpenClaw火了,所有人都在谈论OpenClaw;当下一个框架出现,注意力又会迅速转移。在这种环境下,真正的技术积累和产品迭代变得困难,大部分参与者只是在不同的热点之间疲于奔命。
回到最开始的问题:究竟是谁在玩龙虾?
答案可能是:那些焦虑的开发者,试图在这个快速变化的时代找到安全感;那些投机的服务商,希望借助热点推销自己的产品和服务;那些迷茫的创业者,在寻找下一个可能的风口;以及那些真诚相信技术能改变世界的理想主义者,尽管他们中的大多数最终会发现,改变比想象中要困难得多。这些人共同构成了这场运动的参与者,也共同承受着期望与现实之间的落差。
当热潮退去,真正有价值的东西会留下来。
可能是一些被验证过的最佳实践,可能是几段在特定场景下确实能提升效率的工作流,也可能是关于**“如何与AI协作”**的新认知。但前提是,参与者们能够从这场集体的狂热中抽离出来,诚实地评估这些工具的能力边界,并在实际的业务场景中寻找真正的价值创造点。这需要时间,需要耐心,也需要一定程度的运气。
而在那之前,龙虾大会还会继续,只是参会者脸上的表情可能会从兴奋变成困惑,再从困惑变成一种若有所思的平静。那可能是一个更健康的状态——对于技术,对于行业,对于所有在其中寻找机会的人来说,都是如此。
参考
-
OpenClaw GitHub Repository, https://github.com/openclaw/openclaw, 截至2026年3月收获278k stars ↩︎
-
Cursor Blog, 2026年2-3月产品更新动态,包括Automations、JetBrains ACP、Agent Computer Use等功能发布 ↩︎
-
Anthropic, “Introducing Claude Sonnet 4.6”, February 17, 2026, https://www.anthropic.com/news/claude-sonnet-4-6 ↩︎