AI人物志系列:理解智能的本质,需要理解创造它的人。本系列记录那些在寒冬中坚守、在狂热中清醒的灵魂,他们的弯路与开悟,构成了AI的真正历史。

当理论家还在争论神经网络是否可行时,一个法国工程师已经让机器看清楚了世界。

1989年,新泽西州霍姆德尔镇的一栋灰色办公楼里,一位留着长发、穿着皮夹克的法国年轻人正在向一群西装革履的银行家演示他的"疯狂想法"。他面前是一台笨重的计算机,屏幕上跳动着一串串手写数字。当机器准确识别出那些潦草的字迹时,银行家们交换着困惑的眼神——他们不知道,自己刚刚见证了人工智能历史上最重要的突破之一。

这位年轻人叫Yann LeCun。他带来的不是理论论文,而是一个能工作的系统。“我不在乎它为什么工作,“他后来回忆当时的想法,“我只在乎它确实工作了。”

这是工程师的思维,也是LeCun一生的注脚。

巴黎的地下实验室:一个工程师的觉醒

1960年,LeCun出生在法国巴黎郊区的一个普通家庭。与Hinton的"天才家族"不同,LeCun的童年没有什么传奇色彩。他喜欢拆东西——收音机、电视机、任何他能拿到手的电子设备。“我不是想修好它们,“他说,“我只是想知道它们是怎么工作的。”

这种好奇心把他带向了工程学。1980年代,LeCun在巴黎的ESIEE工程学院学习电气工程。那是一个AI的寒冬,神经网络被视为死路,但LeCun在一个偶然的机会接触到了一本关于认知科学的书,书中提到了一种模仿人脑视觉皮层结构的算法——卷积神经网络

“我当时就想,这东西太美了,“LeCun回忆,“它不是抽象的数学,它是可以实现的。”

与Hinton不同,LeCun没有被神经网络的"不可解释性"困扰。作为一个工程师,他关心的是效果,而不是原理。如果一种方法能让机器学会识别图像,那它就是好方法——至于为什么,可以以后慢慢研究。

这种实用主义态度让LeCun在1985年做出了一个大胆的决定:他要去见Geoffrey Hinton。

多伦多的那个夏天:两个偏执狂的相遇

1985年的夏天,LeCun带着自己写的代码来到多伦多大学。他敲开了Hinton办公室的门,两个改变AI历史的人第一次面对面。

“他看起来像个嬉皮士,“Hinton后来回忆,“长发、皮夹克,说话带着浓重的法国口音。但他眼睛里有火。”

LeCun向Hinton展示了他对卷积神经网络的改进。当时的神经网络研究主要集中在全连接网络,但LeCun意识到,对于图像识别这种任务,全连接是低效的——图像中的相邻像素有天然的关联性,应该被一起处理,而不是分别处理。

Hinton被震动了。“他解决了我在论文里提到但没有解决的问题,“Hinton说,“这个年轻人不只是理解了我的理论,他超越了它。”

那个夏天,LeCun和Hinton一起工作,完善反向传播算法,探索多层网络的训练方法。但两人的分歧也很快显现:Hinton痴迷于理解大脑,LeCun只关心让系统工作;Hinton愿意花十年打磨一个理论,LeCun想要六个月看到成果。

“我们是两种完全不同的动物,“LeCun后来形容这段关系,“他是哲学家,我是工程师。但奇怪的是,这种差异让我们互补。”

AT&T贝尔实验室:从实验室到现实世界

1988年,LeCun加入了传奇的AT&T贝尔实验室。那是全球最先进的科研机构,诞生了晶体管、激光、Unix操作系统。对LeCun来说,这里是天堂——有无限的计算资源,有聪明的同事,最重要的是,有真实的问题需要解决。

LeCun接手的第一个大项目是手写数字识别。美国邮政系统每天处理数百万封信件,需要自动识别信封上的邮编。这是一个完美的测试场:数据充足,问题明确,而且——如果成功——有巨大的商业价值。

LeCun花了两年时间构建了一个名为LeNet的系统。它有多层卷积结构,有池化层降低计算量,有反向传播训练参数。当LeNet在1990年投入使用时,它能以99%的准确率识别手写数字,处理速度超过每秒100张。

“那是我人生中最骄傲的时刻,“LeCun回忆,“不是因为我发表了论文,而是因为我的系统真的在帮助人们送信。”

LeNet的成功证明了深度学习的实用价值,但它并没有改变学术界的看法。1990年代,支持向量机(SVM)成为机器学习的主流,神经网络再次被视为"过时的技术”。LeCun在会议上发表论文,听众寥寥;他申请研究经费,评审人质疑"这东西真的有用吗”。

“那时候很孤独,“LeCun说,“但我有LeNet。只要它还在工作,我就知道我们是对的。”

被驱逐的十年:在工业界坚守

1996年,AT&T拆分,贝尔实验室的辉煌时代结束。LeCun被迫离开,加入了一家初创公司NEC研究院。后来他又去了纽约大学,在学术界和工业界之间来回切换。

这十年被称为LeCun的"被驱逐期”。深度学习在学术界几乎消失,LeCun是少数几个还在坚持的人。但他没有Hinton那样的耐心——Hinton可以在多伦多安静地等待春天,LeCun需要行动。

他开始做一件在当时看来"不务正业"的事:把深度学习带到工业界

2003年,LeCun创办了一个名为"深度学习研究"的研讨会,邀请工业界的工程师参加。他向他们展示卷积神经网络如何用于人脸识别、自动驾驶、医学影像。“我不跟他们说理论,“LeCun解释,“我给他们看demo。”

这种策略奏效了。2010年代初,随着GPU计算能力的提升和数据量的爆炸,工业界开始意识到深度学习的潜力。Facebook、Google、百度纷纷成立AI实验室,而LeCun成了最抢手的人才。

2013年,Mark Zuckerberg亲自邀请LeCun加入Facebook,领导新成立的AI研究院(FAIR)。LeCun提出了一个条件:研究院必须开源所有研究成果。“如果深度学习要改变世界,它必须是开放的,“他说。

Zuckerberg同意了。FAIR成为工业界AI研究的标杆,而LeCun终于有了一个可以大展拳脚的平台。

与Transformer的对抗:一个工程师的固执

2017年,Google发表了Transformer架构,彻底改变了自然语言处理领域。Transformer抛弃了卷积和循环结构,完全基于"注意力机制”,在翻译、文本生成等任务上取得了惊人效果。

深度学习社区沸腾了。人们开始说"CNN已死"“RNN已死”,所有人都转向Transformer。但LeCun没有。

“Transformer是伟大的工程成就,“LeCun承认,“但它不是智能的全部。它缺乏对世界的基本理解。”

LeCun的批评基于一个工程师的直觉:Transformer处理的是符号序列,但人类智能建立在世界模型之上。我们看、听、触摸,构建对物理世界的内在表征,然后用这个模型来预测、规划、行动。Transformer没有这种模型,它只是在统计符号之间的关联。

“你可以用Transformer生成一段关于’猫在垫子上’的文字,“LeCun说,“但它不知道什么是猫,什么是垫子,什么是’在’。它只是在重复训练数据中的模式。”

这种看法让LeCun在2010年代末显得格格不入。当所有人都在追逐大语言模型时,他在研究自监督学习——让机器通过观察世界来学习,而不是通过人类标注的数据。

“这是Hinton路线和我路线的分歧,“LeCun解释,“Hinton相信,只要有足够大的模型和足够多的数据,智能就会涌现。我相信,我们需要先教会机器理解世界,然后智能才会出现。”

World Model:最后的赌注

2022年,LeCun发表了一篇长达60页的论文,阐述他对AI未来的愿景:World Model(世界模型)

这不是一个新概念。人类大脑一直在做这件事——我们观察世界,构建内在模型,然后用这个模型预测未来。当你扔出一个球,你的大脑会自动预测它的轨迹;当你看到一扇门,你的大脑会预测推开它会发生什么。

LeCun认为,真正的AI需要这种能力。不是识别图像、生成文本,而是理解物理世界,预测行动后果

“大语言模型是’系统二’——逻辑推理、语言处理,“LeCun说,“但人类智能的大部分是’系统一’——直觉、感知、运动控制。我们需要先解决系统一,才能真正理解系统二。”

这个愿景让LeCun在Meta(Facebook改名后的公司)投入了大量资源。他领导团队开发JEPA(联合嵌入预测架构),试图让AI通过观看视频来学习物理规律。不是通过标注,而是通过预测——预测下一帧画面会是什么样子,预测物体的运动轨迹,预测行动的后果。

“这是工程问题,“LeCun说,“不是理论问题。我们需要构建一个系统,让它自己学会理解世界。”

当下的沉思:工程师的乐观与警惕

站在2026年,LeCun的World Model仍然是一个未完成的愿景。大语言模型已经统治了AI领域,Transformer架构无处不在,而LeCun的坚持看起来像是固执。

但LeCun并不沮丧。“工程师的职业生涯就是不断被证明是错的,然后找到新的方法,“他说,“我在1990年代被证明是错的,2010年代又被证明是对的。现在可能又是错的,但那没关系——重要的是找到下一个对的方法。”

与Hinton的悲观不同,LeCun对AI的未来保持乐观。他不认为AI会毁灭人类,至少不会很快。“我们离真正的智能还差得远,“他说,“大语言模型只是工具,它们没有目标,没有欲望,没有自我。”

但LeCun也有担忧。他担心的是AI的集中化——当只有少数几家公司拥有训练大模型的资源时,AI的力量会被滥用。他担心的是幻觉——大语言模型生成虚假信息的能力。他担心的是就业——当AI可以完成越来越多的工作时,社会如何适应。

“这些问题需要工程师来解决,“LeCun说,“不是哲学家,不是政治家,是工程师。我们需要构建更好的系统,更安全的系统,更公平的系统。这是我们的责任。”

说到底:一个工程师的方法论

回顾LeCun的一生,他的方法论清晰可见:先让它工作,再理解它为什么工作

这与科学研究的经典路径相反。经典路径是先建立理论,然后用实验验证。但LeCun走的是另一条路——他先构建系统,观察它如何表现,然后从中提炼理论。

“CNN就是这样诞生的,“LeCun说,“我先让它工作,然后才理解为什么卷积结构有效。World Model也会是这样——我们先构建它,然后理解世界模型的本质。”

这种方法论让LeCun成为深度学习三巨头中最"接地气"的一个。Hinton是先知,Bengio是学者,LeCun是工程师。他不追求完美的理论,他追求能工作的系统。他不等待世界的认可,他改变世界。

一位曾与LeCun共事的工程师对我们说:“LeCun教会我最重要的一课是:不要等理论完善才开始。如果你有一个想法,就构建它,测试它,迭代它。理论会在实践中自然涌现。”

全局来看,LeCun的一生诠释了工程精神的价值。在AI的寒冬中,他用LeNet证明了深度学习的实用价值;在Transformer的热潮中,他用World Model坚守对"理解"的追求。他可能不是最耀眼的明星,但他是最可靠的基石——当理论家还在争论时,工程师已经让机器看清楚了世界。

而这个世界,正在因为他的工作而改变。

  • FIN -

参考