AI人物志-人文主义者李飞飞

AI人物志系列:理解智能的本质,需要理解创造它的人。本系列记录那些在寒冬中坚守、在狂热中清醒的灵魂,他们的弯路与开悟,构成了AI的真正历史。 她教会了机器看见世界,却担心这个世界正在失去对人的看见。 2015年,硅谷的一个会议室里,一位穿着简单、气质干练的华裔女性正在向一群投资人展示她的新项目。屏幕上不是算法公式,而是一张张照片——一个中国女孩站在新泽西的街头,眼神中带着迷茫和倔强。 “这是16岁的我,“李飞飞说,“不会说英语,家里破产,在餐馆打工洗盘子。” 投资人们交换着困惑的眼神。他们来听AI项目,不是来听移民故事。但李飞飞继续说:“我今天站在这里,不是因为算法,而是因为有人相信了我——我的高中老师、我的邻居、整个社区。AI可以改变世界,但我们必须确保它是在帮助人,而不是取代人。” 这是李飞飞的风格。她是ImageNet的创造者,是计算机视觉领域的领军人物,是斯坦福AI实验室的主任。但她谈论AI时,总是从人开始。 从北京到新泽西:一个关于看见的故事 1976年,李飞飞出生在北京的一个知识分子家庭。她的父亲是工程师,母亲是教师。在那个年代,这样的家庭意味着稳定,但也意味着限制。 1992年,16岁的李飞飞随父母移民美国。他们带着全部积蓄——不到一千美元——来到新泽西州的一个小镇。父亲做相机修理,母亲在超市当收银员,李飞飞在餐馆洗盘子。 “那是我人生中最艰难的时期,“李飞飞后来回忆,“我不会说英语,不懂美国文化,感觉自己像个隐形人。” 但李飞飞没有放弃。她每天只睡四个小时,白天上学,晚上打工,周末去图书馆自学英语。她的高中老师发现了这个特殊的学生——一个洗盘子的小女孩,却对物理和数学有着惊人的天赋。 “我的老师帮我申请奖学金,帮我写推荐信,“李飞飞说,“他们让我相信,我可以做任何事。” 1995年,李飞飞以全额奖学金进入普林斯顿大学,主修物理。但她很快发现,自己对抽象的理论不感兴趣。她想要解决真实的问题——关于人的问题。 “物理告诉我世界如何运作,“李飞飞说,“但我想知道,我们如何理解这个世界。” 这个疑问把她带向了神经科学,然后又带向了计算机视觉。 加州理工的困惑:机器为什么看不见? 2000年代初,李飞飞在加州理工学院读博士,研究计算机视觉。 当时的计算机视觉领域正处于困境。研究者们开发了各种算法来识别图像——边缘检测、特征提取、模式匹配——但这些算法只能在特定场景下工作,换个角度、换个光照,就失效了。 “我们像是在教机器背诵答案,“李飞飞回忆,“而不是教它真正理解图像。” 问题的核心是数据。当时的图像识别算法依赖于人工设计的特征,但这些特征太有限了。人类可以识别猫,不管它是坐着、躺着、在黑暗中还是在阳光下。但机器做不到,因为它没有见过足够多的例子。 “人类通过视觉经验学习,“李飞飞想,“为什么机器不能?” 这个简单的想法,催生了ImageNet。 ImageNet:一场关于数据的革命 2006年,李飞飞在伊利诺伊大学厄巴纳-香槟分校担任助理教授。她决定做一件疯狂的事:构建一个超大规模的图像数据库。 当时的标准数据集只有几千张图片。李飞飞想要的是一百万张、一千万张、甚至更多。她相信,只有足够大的数据,才能让机器学习到真正的视觉理解。 “所有人都说我疯了,“李飞飞回忆,“他们说,标注这么多图片是不可能的,成本太高,时间太长。” 但李飞飞找到了一个创新的方法——众包。她通过互联网平台,把图片标注任务分发给全世界的网民。每张图片由多人标注,通过投票机制确保准确性。 这个项目花了两年时间和数百万美元。2009年,ImageNet终于发布——包含超过1400万张图片,涵盖2万多个类别。 “那是计算机视觉的转折点,“一位参与ImageNet的研究者说,“它证明了数据的力量。不是更好的算法,是更多的数据。” 但ImageNet的真正影响在两年后才真正显现。 2012年的夏天:深度学习的黎明 2012年,Hinton的学生Alex Krizhevsky使用深度卷积神经网络(AlexNet)参加ImageNet竞赛,以压倒性优势获胜。错误率比第二名低了10个百分点——在图像识别领域,这是代差。 深度学习革命开始了。 “ImageNet让深度学习成为可能,“Hinton后来承认,“没有ImageNet,我们无法训练这么大的模型。” 李飞飞成为了这场革命的无名英雄。但她没有沉浸在成功的喜悦中,而是开始思考一个更深层次的问题:这场革命会把我们带向哪里? 斯坦福的反思:AI的伦理困境 2013年,李飞飞加入斯坦福大学,担任AI实验室主任。在这个位置上,她看到了AI发展的另一面。 偏见。ImageNet的数据主要来自西方互联网,导致训练出的模型对非西方文化存在偏见。一个识别"新娘"的模型,主要输出的是西方婚纱;一个识别"家庭"的模型,主要输出的是白人家庭。 隐私。人脸识别技术的进步,让监控变得前所未有的容易。政府和企业可以追踪任何人的行踪,而普通人对此毫无察觉。 就业。自动化正在取代越来越多的工作,从工厂工人到白领职员。AI创造的新工作,需要更高的技能,而失业者往往无法胜任。 “我们创造了强大的技术,“李飞飞说,“但我们没有准备好如何使用它。” 这种担忧让李飞飞开始关注AI的伦理问题。她在斯坦福成立了"以人为本的AI(Human-Centered AI)“研究院,致力于研究AI的社会影响,推动负责任的AI发展。 AI4ALL:让AI属于所有人 2015年,李飞飞联合创办了AI4ALL(原名AI4ALL),一个非营利组织,旨在增加AI领域的多样性。 “AI正在塑造我们的世界,“李飞飞说,“但创造AI的人,不能只是硅谷的白人男性。我们需要女性的声音,需要少数族裔的声音,需要来自不同背景的声音。” AI4ALL为高中生——特别是女性和少数族裔——提供AI教育项目。它不仅仅教授编程和算法,更重要的是培养学生的批判性思维,让他们思考AI的社会影响。 “技术本身是中性的,“李飞飞说,“但技术的使用是有价值取向的。我们需要更多人来参与这个价值的塑造。” 这个项目已经培养了数千名学生,其中许多人后来进入了顶尖大学,成为AI领域的研究者。 当下的沉思:人文主义者的警告 站在2026年,李飞飞对AI的发展既有期待,也有担忧。 她看到了AI在医疗、教育、环保等领域的巨大潜力。AI可以帮助医生诊断疾病,帮助老师个性化教学,帮助科学家预测气候变化。这些都是她梦寐以求的应用。 但她也看到了危险。 AI的集中化。训练大模型需要巨大的计算资源和数据,只有少数几家科技巨头能够做到。这种集中化可能导致权力的垄断,让AI成为少数人的工具。 AI的滥用。深度伪造、自动化武器、大规模监控——这些技术正在威胁个人隐私和社会稳定。 AI的异化。当AI越来越强大,人类可能变得依赖它,失去独立思考和判断的能力。 “我担心我们正在创造一个我们不理解的世界,“李飞飞说,“一个由算法决定一切的世界,而人类只是旁观者。” 她的解决方案是人文主义——把人的价值放在AI发展的中心。 “AI应该是增强人类,而不是取代人类,“李飞飞说,“它应该帮助我们成为更好的自己,而不是让我们变得多余。” 说到底:一个看见者的使命 回顾李飞飞的一生,她的核心使命始终是看见——让机器看见世界,让世界看见被忽视的人。 ImageNet让机器学会了视觉理解,这是技术上的看见。AI4ALL让少数族裔和女性进入AI领域,这是社会上的看见。以人为本的AI倡议让伦理问题进入主流讨论,这是价值上的看见。 “我16岁时感觉自己像个隐形人,“李飞飞说,“那种不被看见的感觉,我永远不会忘记。这就是为什么我相信,技术应该用来帮助那些被忽视的人。” 这种信念让李飞飞成为AI界的独特声音。当其他人谈论准确率、算力、市场份额时,她谈论人、社区、价值。她提醒这个技术驱动的行业,不要忘记技术的最终目的是服务人。 一位李飞飞的同事告诉我们:“飞飞让我明白,做AI不只是写代码。你是在塑造未来,而这个未来会影响数十亿人的生活。这种责任感,是飞飞带给我们的最重要的东西。” 全局来看,李飞飞的一生诠释了技术与人文的结合。她是顶尖的科学家,创造了ImageNet这样的技术里程碑;她也是人文主义者,始终关注技术的社会影响。在AI发展最狂热的时期,她保持清醒,提醒人们不要忘记人的价值。 她教会了机器看见世界,但她更希望这个世界能够看见每一个人——尤其是那些像16岁的她一样,感到隐形的人。 而这,就是一个看见者的最高使命。 FIN - 参考

ZHANG.z" | April 7, 2026 | 16 min | Shanghai

AI人物志-强化学习之父Richard Sutton

AI人物志系列:理解智能的本质,需要理解创造它的人。本系列记录那些在寒冬中坚守、在狂热中清醒的灵魂,他们的弯路与开悟,构成了AI的真正历史。 当全世界都在谈论AlphaGo的奇迹时,很少有人知道,那个让机器学会"思考未来"的人,已经在加拿大的寒风中等待了四十年。 2016年3月,韩国首尔四季酒店。AlphaGo与李世石的围棋对决进入白热化。当AlphaGo下出那手震惊世界的"神之一手"时,全球数亿观众为之疯狂。但在遥远的加拿大埃德蒙顿,一位留着胡子、穿着格子衬衫的老人只是微微一笑,然后继续在他的白板上写着公式。 他叫Richard Sutton。他是强化学习之父,是AlphaGo背后的理论奠基人。但此刻,他没有在看直播——他已经知道结果。四十年的等待,终于等到了这一天。 “AlphaGo证明了强化学习可以工作,“Sutton后来平静地说,“但我更关心的是,它还能做什么。” 马萨诸塞州的童年:一个关于选择的谜题 1957年,Sutton出生在美国马萨诸塞州的一个普通家庭。他的父亲是一位工程师,母亲是一位教师。从小,Sutton就展现出对数学和逻辑的痴迷。 但真正改变他的是一本旧书。 那是1960年代末,Sutton在图书馆的角落里发现了一本关于心理学的书。书中描述了一个实验:老鼠在迷宫中学习找到食物。Sutton被这个简单的场景迷住了——没有老师,没有标签,只有尝试、错误、和奖励。老鼠通过不断尝试,学会了最优路径。 “这就是学习的本质,“年轻的Sutton想,“不是被教导,而是通过互动。” 这个念头像一颗种子,埋进了Sutton的心里。他不知道,这颗种子将在四十年后长成参天大树。 斯坦福的困惑:监督学习的局限 1970年代末,Sutton进入斯坦福大学学习计算机科学。那是AI的第一次寒冬,但Sutton对主流的方向感到困惑。 当时的主流是监督学习——给机器大量标注数据,让它学会从输入到输出的映射。但Sutton觉得这种方法有问题:人类不是这样学习的。婴儿学走路,不是通过看一万个"正确走路"的示例;棋手学棋,不是通过记忆所有可能的局面。 人类学习是通过试错,通过与环境的互动,通过奖励和惩罚。 “监督学习假设有一个’正确答案’,“Sutton后来解释,“但现实中,很多问题的答案取决于你未来的行动。下棋时,这一步的好坏取决于你后面怎么下;投资时,这个决策的好坏取决于市场未来的变化。” Sutton想要一种不同的学习范式——强化学习(Reinforcement Learning)。在这种范式中,智能体通过行动影响环境,环境反馈奖励或惩罚,智能体的目标是最大化长期累积奖励。 这不是简单的输入-输出映射,这是一个序列决策问题。 时序差分:在未知中寻找答案 1984年,Sutton在麻省大学阿默斯特分校读博士时,做出了他一生中最重要的贡献——时序差分学习(Temporal Difference Learning)。 核心问题很简单:如何估计一个状态的价值?在棋局中,当前局面的价值取决于从当前局面出发,最终能赢还是输。但我们不知道最终结果,我们只能一步步走下去。 Sutton的洞见是:我们可以用当前的估计来更新当前的估计。 具体来说,当我们从状态A走到状态B时,我们可以用状态B的当前价值估计来更新状态A的价值估计。如果状态B看起来很好,那么状态A也应该变得更好;如果状态B看起来很糟,那么状态A也应该变得更糟。 这种"自举(bootstrapping)“的方法看起来像是循环论证——用估计来更新估计,能收敛吗? Sutton用数学证明了,在某些条件下,它能收敛。而且,它比传统的蒙特卡洛方法(等到游戏结束才更新)更快、更高效。 “时序差分是人类学习的方式,“Sutton说,“当我们做一件事时,我们不需要等到最终结果才知道好坏。我们可以根据中间反馈实时调整。” 这篇1988年发表的论文,成为强化学习领域的奠基之作。但当时的AI社区对此反应冷淡。 漫长的冬天:在边缘坚守 1980年代到2000年代,强化学习处于AI的边缘。 监督学习有ImageNet,有深度学习,有耀眼的成果。但强化学习呢?它只能在简单的玩具问题上演示,比如让机器人在网格世界里找路,或者让杆子在车上保持平衡。 “那时候很难,“Sutton回忆,“申请经费被拒,发表论文困难,学生招不到。人们问,‘这东西能做什么?‘我回答不了。” 但Sutton没有放弃。他相信,强化学习的问题不是理论问题,是规模问题。当时的计算机不够快,模拟环境不够复杂,算法无法展现真正的能力。 “我们需要等待,“Sutton说,“等待计算能力的提升,等待合适的应用场景。” 这个等待持续了将近三十年。 在这期间,Sutton培养了一批学生,其中最著名的包括David Silver——后来AlphaGo的核心开发者。Sutton把强化学习的火种传递给了下一代,即使他自己看不到火焰燃起的那一天。 “我告诉他们,这不是一个热门的领域,“Sutton说,“但如果你相信它,就坚持下去。” 2013年的突破:Atari游戏上的奇迹 2013年,DeepMind发表了一篇论文,震惊了整个AI社区。 他们用一个简单的强化学习算法(DQN,深度Q网络),在没有任何先验知识的情况下,学会了玩Atari电子游戏。不是一两个游戏,是几十个游戏。而且,在某些游戏上,AI的表现超越了人类专家。 Sutton看到这篇论文时,知道等待结束了。 “DeepMind证明了,强化学习可以扩展到复杂问题,“Sutton说,“不是通过更聪明的算法,而是通过深度学习来近似价值函数。” 这是Sutton理论的完美验证。时序差分学习需要估计状态的价值,但对于复杂问题(比如游戏画面),状态空间太大,无法用表格存储。深度学习提供了近似价值函数的方法——用神经网络来估计"这个画面有多好”。 DeepMind的创始人Demis Hassabis后来承认,他们的工作建立在Sutton的理论基础之上。 “Sutton是强化学习的奠基人,“Hassabis说,“没有他的工作,就没有AlphaGo。” AlphaGo:等待四十年的答案 2016年,AlphaGo击败李世石,成为AI历史上的里程碑。 AlphaGo的核心是蒙特卡洛树搜索(MCTS)结合深度神经网络。但很少有人知道,MCTS的理论基础正是Sutton在1980年代发展的强化学习方法。 具体来说,AlphaGo使用了Sutton的**策略梯度(Policy Gradient)**方法。它不是简单地估计状态价值,而是直接优化策略——教网络"在这种情况下应该怎么下”。 “AlphaGo是强化学习的胜利,“Sutton说,“但它也是开始,不是结束。” Sutton指出,AlphaGo的成功有几个关键因素: 完美的模拟环境:围棋规则明确,可以完美模拟。现实世界没有这么干净。 大量的自对弈数据:AlphaGo通过自己跟自己下棋,生成了数百万局数据。现实世界的数据是昂贵的。 明确的奖励信号:赢或输,一目了然。现实世界的奖励是延迟的、模糊的。 “围棋是强化学习的理想测试场,“Sutton说,“但真正的挑战在现实世界。” 当下的沉思:强化学习的下一个前沿 站在2026年,Sutton正在思考强化学习的下一个前沿。 他认为,当前的强化学习还有几个根本问题需要解决: 样本效率:AlphaGo需要数百万局游戏才能学会下棋,人类只需要几百局。如何让学习更高效? 泛化能力:AlphaGo只会下围棋,不会下象棋。如何让学到的知识迁移到其他任务? 真实世界:围棋有完美的模拟器,但现实世界没有。如何让强化学习在真实环境中工作? Sutton的答案是:预测。 “智能的本质是预测,“Sutton说,“预测接下来会发生什么,预测行动的后果,预测什么策略会带来好的结果。” 他提出了**预测学习(Predictive Learning)**的概念——不是学习特定的任务,而是学习预测世界。这种预测能力是通用的,可以迁移到任何任务。 ...

ZHANG.z" | April 6, 2026 | 17 min | Shanghai

AI人物志-天选之人刘嘉

AI人物志系列:理解智能的本质,需要理解创造它的人。本系列记录那些在寒冬中坚守、在狂热中清醒的灵魂,他们的弯路与开悟,构成了AI的真正历史。 当AI的信仰丢失20年后,一个研究大脑的人重新找到了回家的路。 2016年3月,江苏卫视《最强大脑》的录制现场,一位戴着眼镜、气质儒雅的教授正盯着监视器,眉头紧锁。屏幕上,人工智能系统正在与人类选手进行人脸识别对决。当AI以压倒性优势获胜时,现场爆发出欢呼声,但这位教授却感到一阵眩晕。 他叫刘嘉,当时是北师大心理学院院长,一个研究人脑20多年的脑科学家。那一刻,他意识到一件事:丢失20年的信仰,回来了。 “我当时以为AI还是一如既往的弱智,“他后来回忆,“结果它已经在最强大脑的赛场上击败了人类。那种感觉,就像你一直以为走丢的孩子已经死了,突然有一天,他站在你面前,而且比你想象的更强大。” 北大的第一堂神经网络课:一个被遗忘的名字 刘嘉的AI故事,要从1994年说起。 那一年,刘嘉还是北京大学心理学系的学生。他对数理充满热情,但心理学的课程让他失望——“太文科了,不讲逻辑,太哲学思辨”。他一度想转去学计算机,直到他偶然选了一门课。 那门课叫"人工神经网络”,授课老师是一位刚从日本做完博士后回国的年轻教师。刘嘉至今记得那间教室的位置,记得黑板上画着的神经元连接图,记得那种"终于找到组织了"的激动。 “那是我国内可能第一门人工神经网络的课程,“刘嘉回忆,“老师的样子我都记得,但名字全忘了。” 这个被遗忘的名字,改变了刘嘉的一生。人工神经网络完美契合了他的背景——既有心理世界的复杂性,又有理科的严谨逻辑。他决定把神经网络作为一辈子的事业。 但命运弄人。就在刘嘉准备投身AI时,他遇到了Marvin Minsky。 MIT的低谷:信仰被亲手埋葬 1995年,刘嘉来到MIT读研究生。他满怀憧憬,想要跟随AI界的教父Marvin Minsky学习神经网络。但他不知道的是,Minsky对神经网络"深仇大恨”,而当时的AI正处于最后一次寒冬。 “我去见Minsky的时候,他非常depressed,“刘嘉回忆,“我问他做AI应该选哪个方向,他说他自己也不知道promising的方向在哪里。” Minsky建议刘嘉去学脑科学——“脑科学太好了,有太多frontier可以探索”。刘嘉听从了这个建议,留在了脑与认知科学系。但他没有意识到,这个选择意味着与AI的20年分离。 “我当时并没有底层的逻辑或信念,“刘嘉后来反思,“只是觉得神经网络很酷,但一旦大家说这东西不行,特别是像Minsky这种权威说AI不行,我就没细想,然后放弃掉了。” 那是AI的最后一次寒冬,90%以上的人都放弃了。刘嘉也是其中之一。 20年的弯路:从脑科学到《最强大脑》 接下来的20年,刘嘉把AI"彻底给忘记了”。 他专注于脑科学研究,从MIT博士毕业,回国任教,先在中科院,后去北师大。他研究视觉认知、神经机制、大脑的可塑性,发表了大量论文,成为脑科学领域的权威。2015年,他甚至成为北师大心理学院院长,行政职务一片坦途。 但刘嘉心里始终有一个空缺。那个1994年在北大课堂上点燃的热情,那个关于人工神经网络的梦,被深埋在心底,几乎被遗忘。 直到2016年,《最强大脑》的人机大战。 “当时我们想做一个酷炫的节目,想到了人机大战,“刘嘉回忆,“其实我对AI的进展、对深度学习了解基本上为0,当时以为AI还是一如既往的弱智。” 结果让他震惊。AI在人脸识别上超越了人类最顶尖的高手。而那一年,正是AlphaGo击败李世石的年份。 “这两件事情结合起来,让我重新回到了20年前,“刘嘉说,“丢失20年的信仰,回来了。” 信仰的重建:从Hinton的传记中找到底层逻辑 2016年之后,刘嘉开始疯狂地补课。他读深度学习的论文,学习神经网络的新进展,试图理解这20年发生了什么。 但他很快发现,技术细节不是最重要的。重要的是理解为什么——为什么深度学习突然行了?为什么神经网络在20年后复活了? “我看了半天也没看明白啥,“刘嘉承认,“后来我想应该从Hinton的传记史里面入手。” 他研究了Geoffrey Hinton的历史,看了Yann LeCun和Yoshua Bengio的背景。但Hinton的经历最触动他——那个在AI寒冬中孤独坚守40年的人,那个即使被全世界嘲笑也不放弃的人。 “Hinton有一句话对我触动特别大,“刘嘉说,“别人问他为什么要坚持做人工神经网络,他说:‘人的大脑就是这么工作的,没理由人工神经网络不这么工作。’” 这句话道出了底层逻辑:人工神经网络不是仿生,而是对智能本质的回归。 刘嘉突然明白了。他20年的脑科学研究不是弯路,而是必要的准备。正因为研究了大脑,他才能真正理解为什么深度学习有效——因为大脑就是这么工作的,神经元连接、学习、涌现智能。 “我找到了我的底层逻辑,“刘嘉说,“当年就应该选人工神经网络来做。至于Hopfield网络还是其他,都不重要。只要底层架构对了,其他都是技术问题。” 辞掉院长:不想错过这个时代 找到底层逻辑后,刘嘉做了一个让所有人震惊的决定:辞去北师大心理学院院长的职务。 “我当时不到45岁,级别做得比较高,从行政的路来讲是一片坦途,“刘嘉解释,“但我想,不能在那上面浪费时间。” 学校不允许他辞职。刘嘉花了一年时间,每两天给大书记发一次短信,“你赶紧批准吧”。最终,他成功了,成为一个普通的教授,把所有行政职务全部辞掉。 “现在是最伟大的时代,“刘嘉说,“为什么说要把所有的行政职务全部给辞掉?道理非常简单——不想错过这个时代。” 2019年,刘嘉加入清华,成为脑与智能实验室的负责人。清华的AI很强,但脑科学比较弱;刘嘉的脑科学很强,但AI比较弱。这是一个完美的互补。 “我和清华之前完全没有任何交集,“刘嘉说,“但我觉得那是一个很好的地方。” 降临派的天选之人:脑科学+AI的融合 刘嘉把自己称为"降临派”——相信AI终将超越人类,而人类应该迎接这个未来。 但与其他降临派不同,刘嘉的信仰有坚实的科学基础。他认为,光靠Transformer堆数量是不够的,神经元的质量需要脑科学的借鉴。 “我们可以堆数量,但是光靠堆数量是不行的,还要去提升质量,“刘嘉说,“这时候需要脑科学的借鉴。” 他指出了当前AI的三大缺陷: 缺乏复杂度:Transformer没有动力学,没有偏微分方程,而生物神经网络是四维的(三维结构+时间)。 缺乏长程反馈:人脑40%是长程feedback连接,而Transformer接近零。 缺乏并行加工:Transformer只能串行predict next token,而人类有快速的并行加工系统。 “这三个东西是目前人脑和人工神经网络最大的区别,“刘嘉说,“而这三个东西,导致我们现在做脑机接口和机器人最大的瓶颈。” 刘嘉认为,AI要进入下一个阶段,必须有一场基于脑科学的启蒙运动——就像当年脑科学启蒙了感知机、卷积神经网络一样。 “我觉得下面还需要一个脑科学,在第一系统上面对AI有一个启蒙,“刘嘉说,“这个启蒙一旦完成了,AI才会变成一个真正的AI,或者真正的物种。” 当下的沉思:与AI共生是最难的课题 站在2026年,刘嘉正在拼命思考一个课题:怎么和AI对话,怎么和AI共生。 “很难很难,“他承认,“很多人觉得能够用AI就叫AI原生,那就是瞎扯。AI原生是一种思维范式的、一种根本性的改变。” 刘嘉把与AI的关系比作"谈恋爱”——不是工具的使用,而是伙伴的合作。AI不是word、不是PPT,它有能动性,有创造力,有"小性格”。 “她就像一个小女生一样,你今天对她还好好的,你说句话她还挺开心,你明天说同样的话她就给你使脸色,“刘嘉形容,“那一定是我philosophy哪儿没做对。” 这种困惑是普遍的。AI时代,“小术易求,大道难得”——各种工具、技巧层出不穷,但从底层理解AI的philosophy,反而成为这个时代最困惑的问题。 “全世界所有的人,现在都没有这个philosophy,“刘嘉说,“大家都是在摸索的过程中。但有些人走到前面,他有更深刻的理解。” 刘嘉希望成为那个"走到前面"的人。他用20年研究人脑,用20年远离AI,然后在2016年重新找到信仰。这种经历让他有独特的视角——既懂脑科学,又懂AI;既懂人的智能,又懂人工智能。 “如果从一个降临派的角度来说,我的那个歧路可能是必要的安排,“刘嘉说,“从头到尾没有放弃过信仰,但是需要去学习别的东西,从而可以帮助AI更好的发展。” 说到底:一个天选之人的使命 刘嘉的故事,是一个关于信仰与弯路的故事。 ...

ZHANG.z" | April 5, 2026 | 19 min | Shanghai

AI人物志-教父Marvin Minsky

AI人物志系列:理解智能的本质,需要理解创造它的人。本系列记录那些在寒冬中坚守、在狂热中清醒的灵魂,他们的弯路与开悟,构成了AI的真正历史。 他是人工智能的命名者,却亲手扼杀了它的第一个春天。 1956年夏天,达特茅斯学院的一间会议室里,四位年轻人正在讨论一个疯狂的想法:让机器像人一样思考。他们中有数学家、信息论专家、神经科学家,还有一个刚刚从哈佛毕业的年轻人——Marvin Minsky。 会议持续了八周,没有产生任何实质性的成果。但Minsky提出了一个词,改变了历史:人工智能(Artificial Intelligence)。 “我当时只是想找一个词来描述我们要做的事,“Minsky后来回忆,“没想到它会变成这么大的一个领域。” 他更没想到的是,二十年后,他会成为这个领域的"杀手”。 哈佛的天才:一个关于心智的谜题 1927年,Minsky出生在纽约的一个犹太家庭。他的父亲是一位眼科医生,母亲是一位艺术家。从小,Minsky就展现出惊人的天赋——他读遍了家里的所有书籍,从医学到艺术,从哲学到数学。 但真正改变他的是一台玩具。 那是1940年代,Minsky的父亲给他买了一台显微镜。年轻的Minsky开始观察一切——昆虫的翅膀、植物的细胞、自己的皮肤。但他最着迷的不是这些实物,而是观察本身。 “我看着显微镜,突然意识到一个问题,“Minsky后来写道,“我在用我的眼睛观察细胞,但我的眼睛也是由细胞组成的。那么,是什么在观察?” 这个关于自我的谜题,成为Minsky一生的追求。他想知道心智是如何工作的,意识是如何产生的,智能是如何涌现的。 1946年,Minsky进入哈佛大学。他主修数学,但他的兴趣遍布所有学科。他听神经科学的课,参加哲学的讨论,在心理学实验室做实验。他想要找到一个统一的框架,来解释所有关于心智的问题。 “我当时相信,智能是可以被形式化的,“Minsky回忆,“如果我们能描述心智的规则,我们就能在机器上实现它。” 这是符号主义AI的核心理念,也是Minsky一生的信仰。 达特茅斯:一个夏天的野心 1956年的达特茅斯会议,是AI历史上的里程碑。但很少有人知道,这次会议几乎是一场灾难。 会议的组织者是John McCarthy,一位年轻的数学家。他邀请了Minsky、Claude Shannon(信息论创始人)、Nathaniel Rochester(IBM首席设计师)等人,希望讨论"如何让机器模拟人类智能的各个方面”。 但会议开始后,大家发现根本不知道该讨论什么。每个人对"智能"的理解都不同,每个方向看起来都充满可能。争论持续了八周,没有达成任何共识。 “那是一次失败的会议,“一位参与者后来承认,“但Minsky拯救了它。” Minsky做了什么?他提出了一个框架。他说,智能可以被分解为几个核心问题:推理、知识表示、学习、语言理解。每个问题都可以被独立研究,最终组合成一个完整的智能系统。 这个框架让混乱的讨论有了方向。它也成为符号主义AI的路线图,影响了接下来二十年的研究。 “Minsky的天才在于抽象,“一位AI历史学家评价,“他能把复杂的问题简化成可管理的部分。这种能力在科学史上是罕见的。” MIT AI Lab:符号主义的黄金时代 1959年,Minsky和McCarthy共同创立了MIT人工智能实验室。这是世界上第一个专门研究AI的机构,也是符号主义AI的大本营。 在接下来的二十年里,MIT AI Lab诞生了无数传奇。Minsky的学生们开发了最早的专家系统、自然语言处理程序、机器人视觉系统。他们相信,只要积累足够多的规则,机器就能拥有通用的智能。 Minsky本人也做出了重要贡献。他开发了框架理论(Frame Theory),一种知识表示的方法;他设计了Snarc,最早的神经网络模拟器之一;他写了《心智社会(The Society of Mind)》,一本试图解释意识如何产生的哲学著作。 “那是一段令人兴奋的时光,“一位Minsky的学生回忆,“我们相信自己在创造历史。Minsky告诉我们,智能的奥秘就在我们眼前,只要再努力一点,就能揭开它。” 但Minsky的自信背后,隐藏着一种傲慢。他相信符号主义是正确的道路,其他方向都是歧途。特别是神经网络——那种模仿大脑结构的"连接主义"方法,在Minsky看来是"不科学的”。 “神经网络只是统计学,“Minsky在一次演讲中说,“它没有告诉我们任何关于智能本质的东西。” 这种偏见,最终导致了AI历史上最大的悲剧之一。 《感知机》:一把双刃剑 1969年,Minsky和Seymour Papert出版了《感知机(Perceptrons)》一书。这本书用严格的数学证明,指出了单层神经网络的致命缺陷:它们无法解决简单的异或(XOR)问题。 从技术角度,这本书是正确的。单层感知机确实有局限性,需要多层结构才能解决复杂问题。但Minsky和Papert的表述方式——强调神经网络的"不可能性”,而不是讨论如何改进——给整个领域泼了一盆冷水。 “那本书杀死了神经网络研究,“一位经历过那个时代的科学家说,“Minsky是当时AI界的权威,他的话有决定性的影响。当他说神经网络是死胡同时,没有人敢继续研究它。” 神经网络进入了第一次"寒冬”。研究经费被削减,学术职位消失,年轻的研究者被迫转行。Hinton后来回忆,他在1970年代几乎找不到任何关于神经网络的论文,因为"那个领域已经不存在了”。 Minsky知道这本书的影响,但他从未为此道歉。“我只是在陈述事实,“他坚持,“如果神经网络研究者不能解决这些问题,那他们就不应该继续。” 这种冷酷让许多人感到愤怒。但Minsky不在乎。他相信真理比人情更重要,即使这个真理可能伤害了别人。 1980年代:一个教父的困惑 1980年代,专家系统的成功让AI迎来了第二次春天。Minsky似乎被证明是对的——符号主义确实可以产生实用的系统。 但Minsky本人并不满意。 专家系统只能在特定领域工作,它们没有通用智能,不能学习新知识,不能理解常识。Minsky想要的不是这种"窄AI”,他想要的是真正的智能——像人类一样灵活、创造性、有自我意识的智能。 “我们在建造工具,不是在理解心智,“Minsky在一次会议上抱怨,“这不是我想要的AI。” 这种困惑让Minsky在1980年代陷入了一种奇怪的境地。他仍然是AI界的权威,但他的研究方向与主流脱节。他继续研究知识表示、意识理论、心智哲学,但这些工作越来越抽象,越来越远离实际应用。 一位Minsky的同事回忆:“那是一段孤独的时期。Minsky还在MIT,但他不再是那个引领潮流的人。他在思考一些太超前的问题,而业界只关心眼前的应用。” 更讽刺的是,神经网络在1980年代复活了。反向传播算法的出现让多层神经网络变得可行,Hinton、LeCun、Bengio等人开始取得突破。Minsky曾经的"受害者"们,正在证明他错了。 Minsky的反应是沉默。他不再公开批评神经网络,但他也不承认自己的错误。他继续走自己的路,研究符号主义,研究心智哲学,等待符号主义的复兴。 那个复兴从未到来。 2000年代:一个老人的守望 进入21世纪,Minsky已经七十多岁。他仍然活跃在学术界,但他的影响力已经大不如前。 深度学习在2010年代的爆发,彻底终结了符号主义的时代。神经网络在图像识别、语音识别、自然语言处理等领域全面超越符号方法。Minsky曾经嘲笑的"统计学”,正在成为AI的主流。 Minsky对此的反应很复杂。一方面,他承认神经网络的成就;另一方面,他坚持认为这些系统没有真正理解任何东西。 “它们只是在模式匹配,“他在2010年的一次采访中说,“它们没有概念,没有推理,没有自我。这不是智能,这是高级的计算。” 这种批评有一定的道理。大语言模型确实缺乏常识推理、因果理解和真正的创造力。但Minsky的问题在于,他也没有提供替代方案。符号主义在理论上优雅,但在实践中失败。神经网络在实践中成功,但在理论上不透明。 “Minsky被困在自己的框架里,“一位AI研究者评价,“他太相信符号主义了,以至于无法看到其他可能性。这是一个悲剧——一个如此聪明的人,却被自己的偏见限制。” 2016年,Minsky去世,享年88岁。他没有看到AlphaGo击败李世石,没有看到GPT的爆发,没有看到AI成为全社会的焦点。从某种意义上,这是幸运的——他不必面对符号主义的彻底失败。 ...

ZHANG.z" | April 4, 2026 | 20 min | Shanghai

AI人物志-理论家Yoshua Bengio

AI人物志系列:理解智能的本质,需要理解创造它的人。本系列记录那些在寒冬中坚守、在狂热中清醒的灵魂,他们的弯路与开悟,构成了AI的真正历史。 当工程师们在调试代码、哲学家们在争论本质时,一个理论家在寻找数学上的必然。 2018年12月,蒙特利尔的一间会议室里,三位老人正在等待一个改变他们一生的电话。Geoffrey Hinton在多伦多,Yann LeCun在纽约,而Yoshua Bengio就在这里——他的家乡,他工作了三十年的城市。 电话响了。图灵奖。三人共享。 Hinton的反应是困惑,LeCun的反应是兴奋,而Bengio的反应是——沉思。“这证明了一件事,“他后来对一位同事说,“坚持正确的理论,时间会站在你这边。” 这是Bengio的风格。他不追求轰动,不追求速度,他追求理解。 蒙特利尔的冬天:一个数学家的选择 1964年,Bengio出生在巴黎,但他的童年在蒙特利尔度过。那是加拿大最寒冷的城市,冬天漫长而黑暗。年轻的Bengio喜欢在室内读书——数学书、物理书、任何他能找到的科学书籍。 “我从小就知道我想做研究,“Bengio回忆,“不是应用,是纯粹的研究。我想理解事物为什么是这样。” 这种追求把他带向了机器学习。1980年代末,当Bengio在麦吉尔大学读博士时,神经网络正处于第一次寒冬。但Bengio看到了别人忽略的东西:不是神经网络本身,而是学习的过程。 “Hinton关注的是结构,LeCun关注的是应用,“一位曾与Bengio共事的研究者分析,“而Bengio关注的是——学习到底在发生什么?” 这是一个理论问题,也是一个根本问题。如果神经网络能学习,那它学到了什么?它如何表示知识?这种表示与人类智能的表示有何不同? Bengio花了十年时间回答这些问题。 表示学习:在黑暗中寻找光 1990年代,Bengio在AT&T贝尔实验室与LeCun共事。那是深度学习最黑暗的时期,但Bengio没有放弃。他开始研究一个当时几乎无人关注的领域:表示学习(Representation Learning)。 核心问题很简单:当神经网络学习时,它在内部构建了什么样的表示?这些表示为什么有效? “大多数人只关心网络的输出,“Bengio解释,“但我关心的是中间层。当网络识别一张猫的图片时,它的第一层在学习边缘,第二层在学习纹理,第三层在学习形状——这种层次化的表示,就是智能的本质。” Bengio在2000年代初发表了一系列论文,奠定了表示学习的理论基础。他证明了,好的表示应该具有某些数学性质:平滑性、稀疏性、可分解性。这些性质让神经网络能够泛化,能够从有限的例子中学到通用的规律。 “Bengio的贡献是建立了一座桥梁,“一位深度学习研究者评价,“一边是工程实践,一边是数学理论。他让我们理解为什么深度学习有效,而不只是知道它有效。” 但这座桥梁在当时几乎无人通行。2000年代,支持向量机统治着机器学习领域,神经网络仍然被视为"黑箱”。Bengio的论文引用寥寥,他的学生毕业后找不到工作。 “那是我最困难的时期,“Bengio承认,“但我知道我在做正确的事。理论不会过时,只有应用会。” 注意力机制:一个理论的意外应用 2014年,Bengio做出了一个让他自己都感到意外的贡献——注意力机制(Attention Mechanism)。 当时,Bengio正在研究神经机器翻译。传统的序列到序列模型有一个瓶颈:输入序列的所有信息必须被压缩成一个固定长度的向量。对于长句子,这会导致信息丢失。 Bengio提出了一个简单而优雅的解决方案:让模型选择性地关注输入序列的不同部分。当翻译一个词时,模型可以"看"回原文的相关部分,而不是依赖一个压缩的表示。 “这不是工程技巧,“Bengio强调,“这是关于选择性的理论。人类智能的核心就是选择性——我们无法处理所有信息,我们必须选择重要的部分。” 注意力机制彻底改变了自然语言处理。2017年,Google的Transformer架构完全基于注意力机制,开启了大规模语言模型的时代。今天,从GPT到Claude,所有的大语言模型都建立在Bengio的理论基础之上。 但Bengio对注意力机制的流行感到复杂。“它被滥用了,“他说,“人们把它当作万能药,但注意力只是智能的一部分。我们还需要因果推理,还需要世界模型,还需要很多其他东西。” 这种谨慎是Bengio的标志。当业界为大语言模型欢呼时,他保持冷静;当投资人为AI疯狂时,他提出警告。他不是反对进步,他反对的是盲目的进步。 因果推断:下一个前沿 2019年,Bengio做出了一个让同行惊讶的决定:他把研究重心转向了因果推断(Causal Inference)。 这是一个与深度学习完全不同的领域。因果推断研究的是如何从数据中发现因果关系,而不仅仅是相关性。 Judea Pearl——因果推断的先驱——曾批评深度学习只是"曲线拟合”,没有真正理解世界。 Bengio同意这个批评。“深度学习让我们能够预测,“他说,“但它不能让我们理解为什么。如果我们想要真正的智能,我们需要因果推理。” 这个转向在深度学习社区引起了争议。有人质疑Bengio是不是"背叛"了深度学习,有人担心他正在远离主流。但Bengio不为所动。 “科学不是时尚,“他回应,“我们不能因为某个方向流行就追随它,因为某个方向不流行就放弃它。因果推断是智能的基础,无论它是否流行,我都必须研究它。” 过去五年,Bengio在因果推断和深度学习的交叉领域做出了开创性工作。他提出了"因果表示学习"的概念,试图让神经网络不仅学习统计规律,还学习因果结构。 “这是下一个十年最重要的方向,“Bengio预测,“当AI系统能够进行因果推理时,它们将不再是工具,而是真正的智能体。” 在Hinton和LeCun之间:第三条路 回顾Bengio的职业生涯,他的位置很独特——在Hinton和LeCun之间,在理论和应用之间,在坚持和开放之间。 Hinton是先知,他相信神经网络的潜力,愿意为之孤独地等待。LeCun是工程师,他相信实践的力量,愿意为之不断地构建。而Bengio是理论家,他相信理解的价值,愿意为之耐心地探索。 “我们三个人代表了深度学习的三个维度,“Bengio曾这样描述,“Hinton是深度,LeCun是广度,我是连接。我试图理解深度和广度背后的原理。” 这种连接让Bengio成为深度学习社区的关键人物。他创办了ICLR(国际学习表示会议),这是深度学习领域最重要的学术会议之一。他培养了大量学生,其中许多人成为了业界的领军人物。他坚持开源和开放科学,让深度学习的研究成果能够被全世界共享。 但Bengio最珍视的角色是教育者。他在蒙特利尔大学任教三十年,每年都给本科生上课。“理论必须被传承,“他说,“如果只有我一个人理解,那我的研究就没有意义。” 当下的沉思:理论的黄昏还是黎明? 站在2026年,Bengio面临着与Hinton和LeCun不同的挑战。 大语言模型的成功让许多人质疑理论的价值。“为什么我们需要理论?“一些工程师问,“只要堆更多的数据、更大的模型,性能就会提升。” Bengio不同意这种观点。“这是短视的,“他说,“没有理论指导,我们只是在盲目地试错。我们需要理解为什么大模型有效,它们的局限在哪里,如何改进它们。” 他指出了当前AI的几个根本问题: 泛化问题:大语言模型在训练数据上表现很好,但在分布外的数据上常常失败。为什么?因为我们不理解它们真正学到了什么。 因果问题:大语言模型能够生成流畅的文本,但它们不理解因果关系。它们知道"火导致烟”,但它们不知道为什么。 效率问题:训练大模型需要巨大的计算资源。如果我们理解学习的本质,也许可以用更少的资源达到同样的效果。 “这些问题需要理论来解决,“Bengio坚持,“不是更多的数据,不是更大的模型,是更深的理解。” 但Bengio也承认,当前的理论研究面临困境。大模型太复杂了,超出了传统数学工具的适用范围。我们需要新的理论框架,新的数学工具,新的思维方式。 “这是理论的黄昏,也是理论的黎明,“Bengio说,“旧的理论不够用了,但新的理论正在诞生。这是最令人兴奋的时刻。” 说到底:一个理论家的坚守 Bengio的故事,是一个关于耐心的故事。 当工程师们急于构建系统时,他选择先理解原理。当业界追逐热点时,他选择坚持基础。当大模型的成功让理论显得无用时,他选择相信理论的价值。 这种耐心不是固执,而是一种更深层的信念:知识的积累是渐进的,真正的理解需要时间。 “我年轻时想要快速成功,“Bengio回忆,“我羡慕那些发表论文、获得关注的人。但随着年龄增长,我意识到,真正重要的不是速度,是深度。一篇深刻的论文比十篇肤浅的论文更有价值。” 这种哲学影响了Bengio的整个职业生涯。他不追求论文数量,他追求论文质量。他不追逐研究热点,他追求根本问题。他不关心个人名声,他关心知识的传承。 一位Bengio的学生告诉我们:“他教会我最重要的一课是——做研究不是为了发表,是为了理解。如果你真正理解了一个问题,发表是自然的结果。” 全局来看,Bengio的一生诠释了理论的价值。在深度学习的三次浪潮中,他始终站在幕后,不追求聚光灯,但提供了不可或缺的支撑。他的表示学习让深度学习有了理论基础,他的注意力机制让自然语言处理有了突破,他的因果推断研究正在为AI的下一个阶段铺路。 ...

ZHANG.z" | April 3, 2026 | 18 min | Shanghai