AI人物志-工程师Yann LeCun

AI人物志系列:理解智能的本质,需要理解创造它的人。本系列记录那些在寒冬中坚守、在狂热中清醒的灵魂,他们的弯路与开悟,构成了AI的真正历史。 当理论家还在争论神经网络是否可行时,一个法国工程师已经让机器看清楚了世界。 1989年,新泽西州霍姆德尔镇的一栋灰色办公楼里,一位留着长发、穿着皮夹克的法国年轻人正在向一群西装革履的银行家演示他的"疯狂想法"。他面前是一台笨重的计算机,屏幕上跳动着一串串手写数字。当机器准确识别出那些潦草的字迹时,银行家们交换着困惑的眼神——他们不知道,自己刚刚见证了人工智能历史上最重要的突破之一。 这位年轻人叫Yann LeCun。他带来的不是理论论文,而是一个能工作的系统。“我不在乎它为什么工作,“他后来回忆当时的想法,“我只在乎它确实工作了。” 这是工程师的思维,也是LeCun一生的注脚。 巴黎的地下实验室:一个工程师的觉醒 1960年,LeCun出生在法国巴黎郊区的一个普通家庭。与Hinton的"天才家族"不同,LeCun的童年没有什么传奇色彩。他喜欢拆东西——收音机、电视机、任何他能拿到手的电子设备。“我不是想修好它们,“他说,“我只是想知道它们是怎么工作的。” 这种好奇心把他带向了工程学。1980年代,LeCun在巴黎的ESIEE工程学院学习电气工程。那是一个AI的寒冬,神经网络被视为死路,但LeCun在一个偶然的机会接触到了一本关于认知科学的书,书中提到了一种模仿人脑视觉皮层结构的算法——卷积神经网络。 “我当时就想,这东西太美了,“LeCun回忆,“它不是抽象的数学,它是可以实现的。” 与Hinton不同,LeCun没有被神经网络的"不可解释性"困扰。作为一个工程师,他关心的是效果,而不是原理。如果一种方法能让机器学会识别图像,那它就是好方法——至于为什么,可以以后慢慢研究。 这种实用主义态度让LeCun在1985年做出了一个大胆的决定:他要去见Geoffrey Hinton。 多伦多的那个夏天:两个偏执狂的相遇 1985年的夏天,LeCun带着自己写的代码来到多伦多大学。他敲开了Hinton办公室的门,两个改变AI历史的人第一次面对面。 “他看起来像个嬉皮士,“Hinton后来回忆,“长发、皮夹克,说话带着浓重的法国口音。但他眼睛里有火。” LeCun向Hinton展示了他对卷积神经网络的改进。当时的神经网络研究主要集中在全连接网络,但LeCun意识到,对于图像识别这种任务,全连接是低效的——图像中的相邻像素有天然的关联性,应该被一起处理,而不是分别处理。 Hinton被震动了。“他解决了我在论文里提到但没有解决的问题,“Hinton说,“这个年轻人不只是理解了我的理论,他超越了它。” 那个夏天,LeCun和Hinton一起工作,完善反向传播算法,探索多层网络的训练方法。但两人的分歧也很快显现:Hinton痴迷于理解大脑,LeCun只关心让系统工作;Hinton愿意花十年打磨一个理论,LeCun想要六个月看到成果。 “我们是两种完全不同的动物,“LeCun后来形容这段关系,“他是哲学家,我是工程师。但奇怪的是,这种差异让我们互补。” AT&T贝尔实验室:从实验室到现实世界 1988年,LeCun加入了传奇的AT&T贝尔实验室。那是全球最先进的科研机构,诞生了晶体管、激光、Unix操作系统。对LeCun来说,这里是天堂——有无限的计算资源,有聪明的同事,最重要的是,有真实的问题需要解决。 LeCun接手的第一个大项目是手写数字识别。美国邮政系统每天处理数百万封信件,需要自动识别信封上的邮编。这是一个完美的测试场:数据充足,问题明确,而且——如果成功——有巨大的商业价值。 LeCun花了两年时间构建了一个名为LeNet的系统。它有多层卷积结构,有池化层降低计算量,有反向传播训练参数。当LeNet在1990年投入使用时,它能以99%的准确率识别手写数字,处理速度超过每秒100张。 “那是我人生中最骄傲的时刻,“LeCun回忆,“不是因为我发表了论文,而是因为我的系统真的在帮助人们送信。” LeNet的成功证明了深度学习的实用价值,但它并没有改变学术界的看法。1990年代,支持向量机(SVM)成为机器学习的主流,神经网络再次被视为"过时的技术”。LeCun在会议上发表论文,听众寥寥;他申请研究经费,评审人质疑"这东西真的有用吗”。 “那时候很孤独,“LeCun说,“但我有LeNet。只要它还在工作,我就知道我们是对的。” 被驱逐的十年:在工业界坚守 1996年,AT&T拆分,贝尔实验室的辉煌时代结束。LeCun被迫离开,加入了一家初创公司NEC研究院。后来他又去了纽约大学,在学术界和工业界之间来回切换。 这十年被称为LeCun的"被驱逐期”。深度学习在学术界几乎消失,LeCun是少数几个还在坚持的人。但他没有Hinton那样的耐心——Hinton可以在多伦多安静地等待春天,LeCun需要行动。 他开始做一件在当时看来"不务正业"的事:把深度学习带到工业界。 2003年,LeCun创办了一个名为"深度学习研究"的研讨会,邀请工业界的工程师参加。他向他们展示卷积神经网络如何用于人脸识别、自动驾驶、医学影像。“我不跟他们说理论,“LeCun解释,“我给他们看demo。” 这种策略奏效了。2010年代初,随着GPU计算能力的提升和数据量的爆炸,工业界开始意识到深度学习的潜力。Facebook、Google、百度纷纷成立AI实验室,而LeCun成了最抢手的人才。 2013年,Mark Zuckerberg亲自邀请LeCun加入Facebook,领导新成立的AI研究院(FAIR)。LeCun提出了一个条件:研究院必须开源所有研究成果。“如果深度学习要改变世界,它必须是开放的,“他说。 Zuckerberg同意了。FAIR成为工业界AI研究的标杆,而LeCun终于有了一个可以大展拳脚的平台。 与Transformer的对抗:一个工程师的固执 2017年,Google发表了Transformer架构,彻底改变了自然语言处理领域。Transformer抛弃了卷积和循环结构,完全基于"注意力机制”,在翻译、文本生成等任务上取得了惊人效果。 深度学习社区沸腾了。人们开始说"CNN已死"“RNN已死”,所有人都转向Transformer。但LeCun没有。 “Transformer是伟大的工程成就,“LeCun承认,“但它不是智能的全部。它缺乏对世界的基本理解。” LeCun的批评基于一个工程师的直觉:Transformer处理的是符号序列,但人类智能建立在世界模型之上。我们看、听、触摸,构建对物理世界的内在表征,然后用这个模型来预测、规划、行动。Transformer没有这种模型,它只是在统计符号之间的关联。 “你可以用Transformer生成一段关于’猫在垫子上’的文字,“LeCun说,“但它不知道什么是猫,什么是垫子,什么是’在’。它只是在重复训练数据中的模式。” 这种看法让LeCun在2010年代末显得格格不入。当所有人都在追逐大语言模型时,他在研究自监督学习——让机器通过观察世界来学习,而不是通过人类标注的数据。 “这是Hinton路线和我路线的分歧,“LeCun解释,“Hinton相信,只要有足够大的模型和足够多的数据,智能就会涌现。我相信,我们需要先教会机器理解世界,然后智能才会出现。” World Model:最后的赌注 2022年,LeCun发表了一篇长达60页的论文,阐述他对AI未来的愿景:World Model(世界模型)。 这不是一个新概念。人类大脑一直在做这件事——我们观察世界,构建内在模型,然后用这个模型预测未来。当你扔出一个球,你的大脑会自动预测它的轨迹;当你看到一扇门,你的大脑会预测推开它会发生什么。 LeCun认为,真正的AI需要这种能力。不是识别图像、生成文本,而是理解物理世界,预测行动后果。 “大语言模型是’系统二’——逻辑推理、语言处理,“LeCun说,“但人类智能的大部分是’系统一’——直觉、感知、运动控制。我们需要先解决系统一,才能真正理解系统二。” 这个愿景让LeCun在Meta(Facebook改名后的公司)投入了大量资源。他领导团队开发JEPA(联合嵌入预测架构),试图让AI通过观看视频来学习物理规律。不是通过标注,而是通过预测——预测下一帧画面会是什么样子,预测物体的运动轨迹,预测行动的后果。 “这是工程问题,“LeCun说,“不是理论问题。我们需要构建一个系统,让它自己学会理解世界。” 当下的沉思:工程师的乐观与警惕 站在2026年,LeCun的World Model仍然是一个未完成的愿景。大语言模型已经统治了AI领域,Transformer架构无处不在,而LeCun的坚持看起来像是固执。 但LeCun并不沮丧。“工程师的职业生涯就是不断被证明是错的,然后找到新的方法,“他说,“我在1990年代被证明是错的,2010年代又被证明是对的。现在可能又是错的,但那没关系——重要的是找到下一个对的方法。” 与Hinton的悲观不同,LeCun对AI的未来保持乐观。他不认为AI会毁灭人类,至少不会很快。“我们离真正的智能还差得远,“他说,“大语言模型只是工具,它们没有目标,没有欲望,没有自我。” 但LeCun也有担忧。他担心的是AI的集中化——当只有少数几家公司拥有训练大模型的资源时,AI的力量会被滥用。他担心的是幻觉——大语言模型生成虚假信息的能力。他担心的是就业——当AI可以完成越来越多的工作时,社会如何适应。 “这些问题需要工程师来解决,“LeCun说,“不是哲学家,不是政治家,是工程师。我们需要构建更好的系统,更安全的系统,更公平的系统。这是我们的责任。” 说到底:一个工程师的方法论 回顾LeCun的一生,他的方法论清晰可见:先让它工作,再理解它为什么工作。 这与科学研究的经典路径相反。经典路径是先建立理论,然后用实验验证。但LeCun走的是另一条路——他先构建系统,观察它如何表现,然后从中提炼理论。 “CNN就是这样诞生的,“LeCun说,“我先让它工作,然后才理解为什么卷积结构有效。World Model也会是这样——我们先构建它,然后理解世界模型的本质。” 这种方法论让LeCun成为深度学习三巨头中最"接地气"的一个。Hinton是先知,Bengio是学者,LeCun是工程师。他不追求完美的理论,他追求能工作的系统。他不等待世界的认可,他改变世界。 一位曾与LeCun共事的工程师对我们说:“LeCun教会我最重要的一课是:不要等理论完善才开始。如果你有一个想法,就构建它,测试它,迭代它。理论会在实践中自然涌现。” 全局来看,LeCun的一生诠释了工程精神的价值。在AI的寒冬中,他用LeNet证明了深度学习的实用价值;在Transformer的热潮中,他用World Model坚守对"理解"的追求。他可能不是最耀眼的明星,但他是最可靠的基石——当理论家还在争论时,工程师已经让机器看清楚了世界。 而这个世界,正在因为他的工作而改变。 ...

ZHANG.z" | April 2, 2026 | 20 min | Shanghai

AI人物志-木匠Geoffrey Hinton

AI人物志系列:理解智能的本质,需要理解创造它的人。本系列记录那些在寒冬中坚守、在狂热中清醒的灵魂,他们的弯路与开悟,构成了AI的真正历史。 当全世界都说神经网络是死胡同时,一个木匠决定再凿一下那块木头。 2018年3月,多伦多大学的一间办公室里,70岁的Geoffrey Hinton收到了图灵奖获奖通知。那是计算机科学界的最高荣誉,相当于这一领域的诺贝尔奖。但Hinton的第一反应不是庆祝,而是困惑——“为什么是现在?” 答案要追溯到40年前。那时神经网络被视为"伪科学",研究它的人被嘲笑为"炼金术士"。而Hinton,这个曾在大学做过两年木匠的英国人,几乎是孤身一人扛起了这面旗帜。一位长期观察AI发展的研究者对我们说:“如果没有Hinton的坚持,深度学习可能还要晚来20年。” 剑桥的退学信:一个关于"直觉"的决定 1947年,Hinton出生在一个充满"天才"气息的英国家庭。他的父亲是昆虫学家,母亲是教师,家族里还有数学家、经济学家、作家。但Hinton的童年并不快乐——他患有阅读障碍,在精英教育体系中显得格格不入。 1960年代,年轻的Hinton进入剑桥大学学习物理和化学,但很快发现这不是他想要的。“我对人脑如何工作更感兴趣,“他后来回忆。于是他从剑桥退学,转而去爱丁堡大学学习心理学。 这个决定在当时看起来毫无道理。心理学在1960年代还是一门"文科”,充斥着哲学思辨,缺乏严格的科学方法。但Hinton在这里接触到了一样东西,改变了他的一生——人工神经网络。 那是1960年代末,神经网络的概念刚刚诞生不久。科学家们试图用数学模型模拟人脑神经元的工作方式,但很快就遇到了瓶颈。1969年,AI领域的权威Marvin Minsky和Seymour Papert出版了一本名为《感知机》的书,用数学证明证明单层神经网络存在根本缺陷。这本书像一盆冷水,浇灭了整个领域的热情。 神经网络进入了第一次"寒冬”。大多数研究者转向其他方向,但Hinton没有。他看到了别人没看到的东西。 木匠的两年:在木头中寻找答案 1970年代末,Hinton做了一件让同行们更加不解的事——他去当木匠了。 整整两年,他在伦敦的工坊里制作橱柜、书架、门窗。这不是逃避,而是一种独特的思考方式。“做木工和做研究很像,“他后来解释,“你面对一块木头,需要理解它的纹理、它的特性,然后决定如何下刀。神经网络也是一样——你需要理解它的结构,然后找到训练它的方法。” 这段经历给了Hinton两样东西:耐心和手感。 在那个年代,训练一个神经网络需要手动调整成千上万个参数,没有自动化工具,没有GPU加速。Hinton像打磨木头一样,一点点摸索神经网络的"纹理”。他后来发明的"反向传播算法”,某种程度上就是这种"手感"的结晶——一种让神经网络自己调整参数的方法。 1986年,Hinton与David Rumelhart、Ronald Williams合作发表了关于反向传播的论文。这篇论文后来被视为深度学习的奠基之作,但当时并没有引起太大轰动。神经网络仍然处于"寒冬",大多数AI研究者仍然坚信符号主义才是未来。 至暗时刻:在多伦多独自坚守 1980年代末,Hinton接受了多伦多大学的教职,离开英国前往加拿大。这个选择在当时看来是一种"流放"——远离AI研究的核心圈子,远离资金和资源。 但Hinton需要这种孤独。在多伦多,他可以不受干扰地继续自己的研究,哪怕这意味着发表论文困难、申请经费被拒、学生招不到。 一位曾在1980年代末拜访过Hinton实验室的研究者向我们回忆:“那是一间很普通的办公室,墙上贴着几张神经网络的示意图。Hinton当时正在调试一个模型,已经跑了好几天。他说,‘我相信这东西会工作的,只是需要更多时间。’” 更多时间。这是Hinton最不缺的东西。 1990年代到2000年代,神经网络经历了第二次"寒冬"。支持向量机(SVM)等机器学习方法成为主流,神经网络被视为"过时的技术"。Hinton的学生们毕业后很难找到工作,很多人被迫转行。 但Hinton仍然坚持。他不断调整神经网络的结构,尝试不同的训练方法,发表了一篇又一篇被主流忽视的论文。他像一个在荒原上种树的园丁,知道这些树可能需要几十年才能长大。 2006年的那个晚上:深度学习的黎明 转折点出现在2006年。 那一年,Hinton发表了一篇关于"深度信念网络"(Deep Belief Networks)的论文。这篇论文提出了一种有效训练深层神经网络的方法,让多层神经网络的训练变得可行。 论文发表后的那个晚上,Hinton独自走在多伦多的街头。他后来回忆,那是一个寒冷的冬夜,但他感到一种奇怪的温暖。“我知道,有些东西改变了,“他说,“但我不知道它会改变得这么快。” 改变确实来得很快。2012年,Hinton的两个学生Alex Krizhevsky和Ilya Sutskever参加ImageNet图像识别竞赛,使用Hinton设计的深度卷积神经网络AlexNet,以压倒性优势击败所有对手。错误率比第二名低了整整10个百分点——在图像识别领域,这几乎是代差。 一夜之间,深度学习从"边缘技术"变成了"主流范式”。Google、Facebook、微软等科技巨头开始疯狂收购深度学习团队和人才。Hinton的实验室成了朝圣之地,他的学生们成了最抢手的人才。 但Hinton本人并没有因此变得高调。他仍然每天步行去实验室,仍然亲手调试模型,仍然在白板上画满公式。一位Hinton的学生告诉我们:“他对待深度学习的态度,就像对待一块需要精心打磨的木头。技术会过时,但手艺不会。” “人的大脑就是这么工作的”:一个木匠的哲学 2016年,AlphaGo击败李世石,深度学习彻底出圈。媒体开始称Hinton为"AI教父"“深度学习之父”,但他本人对这些称号感到不适。 “我不是在创造什么新东西,“他在一次采访中说,“我只是在模仿自然。人的大脑就是这么工作的——神经元连接,学习,涌现智能。没理由人工神经网络不这么工作。” 这句话道出了Hinton的底层逻辑:仿生不是选择,而是必然。 在他看来,智能的本质不是符号操作,不是逻辑推理,而是学习。人类之所以能够涌现出智能,就是因为大脑具有学习能力。只要给神经网络正确的架构,它就能学会任何东西——从识别猫狗到下棋,从翻译语言到生成图像。 这种哲学与符号主义AI形成了鲜明对比。符号主义者相信,智能可以通过明确的规则和符号来实现;而Hinton相信,智能必须从数据中"学习"出来,就像婴儿学习认识世界一样。 这场争论持续了半个世纪,最终Hinton赢了。但胜利并没有让他变得傲慢。2018年获得图灵奖后,他把奖金捐给了培养年轻研究者的基金。“我只是比其他人多坚持了一会儿,“他说。 2023年的告别:一个关于责任的转身 2023年5月,Hinton做了一件让全世界震惊的事——他从Google离职,并公开警告AI的风险。 “我后悔,“他在接受《纽约时报》采访时说,“我后悔我的一生工作可能带来的后果。” 这不是一个科学家的矫情。Hinton真正担心的是,深度学习的发展速度已经超出了人类的控制能力。大语言模型展现出惊人的能力,但人类并不完全理解这些能力是如何产生的。更可怕的是,这些系统正在以指数级速度变得更强大。 “我原以为AI超越人类还需要30到50年,“他说,“现在我意识到,可能只需要5到10年。” 从Google离职后,Hinton开始花更多时间思考AI的安全问题。他不再每天去实验室,而是参加各种研讨会、接受媒体采访、与政策制定者对话。他想让更多人意识到,我们正站在一个历史的转折点上。 一位在2024年与Hinton有过长谈的研究者向我们转述:“他说,他这一生都在教机器如何学习,现在他发现,人类自己还没有学会如何与这些机器共处。这是他最后想解决的问题。” 弯路与开悟:一个木匠如何找到那条路 回顾Hinton的一生,他并非没有走过弯路。 1970年代末,当他放下神经网络研究去当木匠时,那是一次逃避,也是一次迷失。他在伦敦的工坊里日复一日地刨木头、打榫卯,试图用身体的疲惫来麻痹精神的困惑。神经网络似乎真的走进了死胡同——Minsky的批评是对的,单层感知机确实有根本缺陷。 但正是在那些与木头相处的日子里,Hinton开始理解一个道理:有时候,你需要先退一步,才能看清前面的路。 木工教会了他观察纹理——每一块木头都有自己的纹理,顺着纹理下刀,事半功倍;逆着纹理硬来,只会崩裂。神经网络也是如此。当时的研究者们都在试图用数学证明来证明神经网络的可行性,但Hinton意识到,也许问题不在于证明,而在于结构。 人脑不是单层感知机,人脑是深层的、多层的、有反馈的。如果单层不行,为什么不试试多层? 这个念头像一道闪电,在1978年的某个下午击中了Hinton。他后来回忆,那天他正在打磨一个橱柜的门板,突然停下了手中的刨子。“如果神经网络也像木头一样有层次呢?“他问自己,“如果我们不是试图让单层网络学会一切,而是让每一层学会一点点,然后层层传递呢?” 这就是后来被称为"深度学习"的核心理念——不是让一个复杂的系统做一件复杂的事,而是让许多简单的系统层层协作,最终完成复杂的事。 但光有想法还不够。1980年代的Hinton仍然面临一个根本问题:如何训练多层网络?如何调整那些隐藏层的参数? 他尝试过各种方法。有一段时间,他甚至考虑过放弃神经网络,转向遗传算法——让网络自己进化,而不是被训练。那是一段更加黑暗的日子,Hinton后来称之为"我的遗传算法时期”。“那时候我真的迷失了,“他说,“我以为进化能解决一切问题,但我忽略了进化的代价——它需要数百万年的时间,而我只有一辈子。” 真正的开悟发生在1985年。 那一年,Hinton在卡内基梅隆大学做访问学者。一天晚上,他在酒吧里遇到了David Rumelhart,一位认知心理学家。两人聊起了神经网络的训练问题,Rumelhart提到了一个想法:如果误差可以从输出层反向传播回输入层呢? Hinton听后沉默了整整一分钟。然后他抓起一张餐巾纸,开始在上面画公式。 “那天晚上,我知道我们找到了,“Hinton后来回忆,“不是因为我算出了什么,而是因为那个想法感觉对了。就像你刨木头时,突然感觉到刨子顺着一个完美的角度滑过——你知道,就是这里。” 这就是反向传播算法的诞生。它不是什么天才的灵光一现,而是两个疲惫的研究者在酒吧里的一次碰撞,是无数次失败后的偶然相遇,是一个木匠在木头中找到的直觉。 当下的沉思:当AI真的学会了学习 站在2026年回望,Hinton的弯路和开悟给了我们一个启示:真正的突破往往来自于对"不可能"的坚持,以及对"可能"的重新定义。 ...

ZHANG.z" | April 1, 2026 | 25 min | Shanghai

AI 编程框架的约束竞赛:Superpowers、GSD、gstack

当所有人都声称自己解决了 AI 编程的「失控」问题时,真正的失控才刚刚开始。 2026 年 3 月,AI 编程框架的竞争进入了一个诡异的阶段。Superpowers 用「技能强制」约束过程,GSD 用「状态机」约束环境,gstack 用「角色分工」约束视角,OpenAI 的 Harness Engineering 则用「声明式编排」约束意图。它们都在做同一件事:给失控的 Agent 套上缰绳。 但问题在于——约束不是解决方案,而是问题的转移。 据我们了解,Superpowers 在 GitHub 上已积累 3.15 万+ stars1,gstack 发布数天内即获得约 2 万 stars2,Harness Engineering 相关仓库在 3 个月内激增到 107 个3。然而,一位同时深度使用过这四套系统的资深工程师告诉我们:「它们都在解决同一个症状(Agent 失控),却没人敢碰真正的病因(Agent 不理解)。」 这场「约束竞赛」的本质是什么?各家方法的边界在哪里?以及,为什么它们都离「真正的自主工程」还有距离? Superpowers:用「强制技能」约束过程,但谁来约束技能? Superpowers 的思路很直接:既然 Agent 会乱来,那就让它「必须」按规矩来。 这个由 Jesse Vincent(obra)创建的框架4,核心机制是「技能强制触发」——在 SKILL.md 文件中写入类似 “You MUST use this before any creative work” 的指令,Agent 在检测到对应意图时,必须优先触发技能,而非直接编码。截至 2026 年 1 月,它已被 Anthropic 官方接入 Claude Code 插件市场5。 这套机制的本质是「过程约束」。 它强制 Agent 遵循 RED-GREEN-REFACTOR 的 TDD 循环,强制在编码前完成设计文档,强制通过子 Agent 进行代码审查。一位使用 Superpowers 的 Tech Lead 表示:「它确实减少了『拍脑袋编码』的情况,我们的代码规范遵守率从 60% 提升到了 90%。」 ...

AI | March 29, 2026 | 38 min | Shanghai

Agent 写代码的下一站:不是写得快,而是记得住、跑得远

当 AI Agent 能够连续运行数天、自主管理复杂工程任务时,Web Coding 的竞争规则已经变了。 2026 年开年,AI 编程工具的讨论焦点正在从「能写多少代码」转向「能持续跑多久」。以 Cursor Composer 为代表的新一代工具,正在探索「multi-day autonomy」(多日自主性)——让 Agent 在没有人工干预的情况下连续运行数天,处理从代码生成到架构设计的全流程任务。这不是简单的「自动化」,而是一场关于 Agent 「记忆力」和「决策力」的工程实验。 据我们了解,Cursor 团队在 2026 年 3 月发布的 Composer 2 版本1,将上下文窗口扩展至 20 万 Token,并引入了「会话记忆」「上下文压缩」等能力,试图解决长期运行中的致命问题:上下文爆炸和错误累积。传统 AI 编程在几小时后就会因为上下文过长而「失忆」,而新一代技术通过智能压缩和总结机制,让 Agent 的「有效记忆」远远超出物理窗口限制。 一位接近 Cursor 的工程师透露,他们的目标不是替代程序员写代码,而是构建「能够自主进化的代码仓库」——让软件工程从「人驱动」转向「AI 驱动」。 从「写代码」到「做工程」:Agent 的能力跃迁 过去两年,AI 编程工具的竞争集中在「生成速度」和「代码质量」上。GitHub Copilot 能在几秒内补全代码,Claude Code 能在 6 小时内自主调试复杂系统,但这些仍属于「短跑」——任务明确、时间可控、上下文有限。 Cursor 的长运行能力则将「长跑」推向了「week-scale」(周级)。据行业观察,Composer 的 Agent 模式能够支持长时间复杂任务执行,提供会话记忆、上下文压缩、分支聊天、代理调试面板等能力2。更重要的是,这些 Agent 并非简单执行预设任务,而是能够自主规划、分工协作、迭代优化。 这种能力的本质是什么? 一位长期研究 AI 编程的研究者指出,关键不在于「写代码」本身,而在于「维持工程状态的连续性」。人类工程师的价值不仅在于写代码,更在于对系统架构的理解、对历史决策的记忆、对错误模式的识别。Agent 要想替代这部分工作,必须拥有「长期记忆」和「渐进式学习」能力。 Cursor 的解决方案是「Hierarchical Agents」(分层 Agent)架构:Planner(规划者)负责拆解任务、Worker(执行者)负责具体实现、Judge(评判者)负责质量把关。三层之间通过压缩后的上下文传递信息,既避免了信息过载,又保持了决策连贯性。 记忆,是 Agent 工程化的最大瓶颈 当前 AI 编程工具面临的核心挑战,不是「能不能写」,而是「记不记得住」。 据我们了解,大多数 AI 编程 Agent 在持续运行 4-6 小时后就会出现明显的「失忆」症状:忘记之前的架构决策、重复已修复的错误、对代码库的整体理解逐渐模糊。这是因为大模型的上下文窗口有限,而代码仓库的信息密度极高,几小时的对话就会填满「内存」。 ...

AI | March 20, 2026 | 13 min | Shanghai

Coding Agents 正在重塑工程、产品与设计的分工逻辑

原文:Harrison Chase, How Coding Agents Are Reshaping Engineering, Product and Design, LangChain Blog, 2026 年 3 月。以下为编译,保留原文结构与论点,部分段落做了压缩和意译。 软件公司里的 EPD——工程(Engineering)、产品(Product)、设计(Design)——存在的目的只有一个:造出能用的软件。角色分得再细,最终交付物也只是代码。 认清这一点很重要,因为 Coding Agents 突然让写代码变得极其廉价。那么,EPD 的角色会怎么变? PRDs 已死 在 Coding Agent 出现之前,PRD(产品需求文档)是软件开发的起点。标准流程是一条清晰的瀑布: 有人(通常是 PM)冒出一个想法 PM 写 PRD 设计师根据 PRD 画 Mock 工程师把 Mock 变成代码 这不是铁律——创业公司里这些步骤经常混在一起,最好的 Builder 能一个人跨好几个环节。但之所以还有这条「标准流程」,是因为写软件和画 Mock 都需要大量时间。于是产生了专业分工,也产生了跨分工沟通的需求。PRD 就是这个沟通的起点,一切从这里瀑布到设计,再瀑布到工程。 Coding Agents 改变了这一切。它们可以把一个想法直接变成能跑的软件。所以当我(和其他人)说「PRDs 已死」,真正的意思是:这种以写 PRD 为起点的传统软件开发方式已死。 瓶颈从实现转向审查 任何人现在都能写代码,也就意味着任何人都能做东西。但这不代表做出来的东西架构良好,不代表解决了正确的问题,也不代表好用。 工程、产品和设计应该成为这些维度的审查者和仲裁者。生成的代码并不总是「好的」,EPD 的角色变成了审查并确保它是「好的」。「好的」意味着: 工程视角:架构是否可扩展、高性能、健壮? 产品视角:是否真正解决了用户痛点? 设计视角:界面是否易用、直观? 由于生成初版代码的成本极低,原型数量大幅增加。这些原型成为焦点,EPD 围着它们审查。 问题在于——生成代码太容易了。以前写代码需要时间,审查者桌上同时摆的项目有限。现在任何人都能写代码,在做的项目数量在膨胀。我们在三个职能中看到的瓶颈都是同一个:审查——拿着原型,确保它们是「好的」。 PRDs 万岁 以写 PRD 为起点的旧流程死了,但描述产品需求的文档依然必不可少。 假设有人冒出一个想法,快速生成了一个原型。这个原型怎么进生产?它需要 EPD 其他成员审查。审查时,一份书面文档总是有帮助的,甚至是必需的——别人看代码时,怎么知道某段代码是手误还是有意为之?这取决于意图,而意图需要被传达。 ...

ZHANG.z | March 12, 2026 | 17 min | Shanghai