物理学界流传着一个古老的笑话:物理学家无所不能,除了物理。
虽然是句调侃,但在当今的 AI 浪潮中,这似乎成了某种预言。当你剥开 ChatGPT、Claude 或是 Llama 的外衣,往最核心的算法层和决策层看去,会惊讶地发现:怎么满屋子都是学物理的?
从 OpenAI 的分裂到 Anthropic 的崛起,从 Scaling Laws 的发现到 Transformer 的优化,这群曾经天天琢磨量子态、黑洞和宇宙学的聪明脑袋,似乎集体决定换个赛道——不再纠结上帝掷不掷骰子,而是教 GPU 怎么掷出下一个 Token。
今天,我们就按「学术背景 → 核心贡献 → 现状」的结构,盘点一下这几位“稍不留神”就改变了 AI 历史进程的物理学家。看完你或许会明白,为什么说物理学才是 AGI 的“新东方烹饪学校”。
1. Dario Amodei
(Anthropic 联合创始人 & CEO)
- 物理背景:普林斯顿大学物理学博士。硬核的理论物理与量子计算方向,还顺手在斯坦福和加州理工做了博士后。典型的“谢尔顿”式学术履历。
- 核心贡献:
- Scaling Laws (缩放定律):在大模型还是玄学的年代,他和团队搞出了 Scaling Laws,告诉世界:别瞎猜了,算力、数据和参数量之间有铁律。这直接给“暴力美学”奠定了理论基石。
- Claude 之父:从 OpenAI 出走后创立 Anthropic,死磕“宪法 AI (Constitutional AI)”,试图给 AI 装上安全阀。
- 当前状态:Anthropic CEO。正忙着让 Claude 更聪明、更安全,同时思考怎么不让强 AI 把人类带沟里去。
2. Jared Kaplan
(Anthropic 联合创始人 & 首席科学家)
- 物理背景:约翰霍普金斯大学理论物理学教授。研究了 15 年的量子引力、场论和宇宙学。正儿八经的教授下海,降维打击。
- 核心贡献:
- Scaling Laws 的奠基人:他和 Dario Amodei 的名字几乎和缩放定律绑定。把研究宇宙膨胀的劲头拿来研究模型膨胀,结果发现规律竟然出奇地一致。
- GPT-3 & Codex:在 OpenAI 期间是这两个大杀器的核心参与者。
- 当前状态:Anthropic 首席科学家。继续在 LLM 的基础理论和安全对齐的无人区里探索。
3. Ilya Sutskever
(OpenAI 联合创始人 & 前首席科学家)
- 物理背景:多伦多大学计算机科学博士(师从 Hinton),但本科是物理学。早年深受量子计算和统计力学的影响,这种物理直觉贯彻了他的整个研究生涯。
- 核心贡献:
- 那个男人:参与了 AlexNet(深度学习爆发的原点)、Seq2Seq、Transformer。几乎踩中了过去十年 AI 所有的关键节点。
- GPT 系列的主祭司:主导了 GPT-1 到 GPT-4 的研发。是他坚信“无监督预训练 + 微调”能通向通用智能,并用事实打服了所有人。
- 当前状态:2024 年离开 OpenAI,创办新公司 SSI (Safe Superintelligence)。现在他一心只想搞出安全的 AGI,颇有一种“功成身退,闭关修仙”的意味。
4. Andrej Karpathy
(Eureka Labs 创始人)
- 物理背景:UBC 物理学硕士(物理仿真/强化学习),斯坦福 CS 博士。他在物理仿真方面的功底,让他对 AI 理解世界的方式有着独特的视角。
- 核心贡献:
- AI 布道师:那门著名的 CS231n 课程,大概是全球一半 AI 工程师的启蒙课。
- OpenAI 早期核心:不仅参与了 GPT-4 的训练,还在特斯拉搞了几年自动驾驶。是个既能写底层 CUDA,又能写高层博客的全栈大神。
- 当前状态:创立 Eureka Labs。致力于打造 AI 原生的学习平台,看来是想把“老师”这个副业转正,用 LLM 重塑教育。
5. Dan Roberts
(OpenAI 研究科学家)
- 物理背景:MIT 物理学博士(量子物理),普林斯顿高等研究院 (IAS) 博士后。研究过隐形斗篷和量子信息。这背景,去拍科幻片都够了。
- 核心贡献:
- 物理 AI 理论家:合著了《The Principles of Deep Learning Theory》,硬是用统计物理和场论的方法去解析神经网络。把黑盒当物理系统来研究,他是认真的。
- 用物理学解释 LLM:将平均场理论、中心极限定理应用到 LLM 行为分析上,试图搞清楚“涌现”背后的物理本质。
- 当前状态:OpenAI 研究科学家。继续在数学和物理的层面,寻找 LLM 的“第一性原理”。
6. 朱泽园 (Zhu Zeyuan)
(Meta FAIR 研究员)
- 物理背景:清华物理系本科,MIT 博士。IOI 两届金牌,Google Codejam 全球第二。属于那种“智商溢出”的天才型选手。
- 核心贡献:
- LoRA 核心合作者:现在谁微调模型不用 LoRA?这项工作大幅降低了微调成本,功德无量。
- 语言模型物理学:发起了 Physics of Language Models 项目,用可控实验去揭示 LLM 的架构极限。他用 10% 的算力就训练出了超越 Llama3-8B 的基线模型,证明了“脑子好使比卡多更重要”。
- 当前状态:Meta FAIR 研究员。专注优化算法和科学范式革新,试图把炼丹变成化学。
7. John Hopfield
(普林斯顿大学教授 / 2024 诺贝尔物理学奖得主)
- 物理背景:正如他的头衔所示,这是一位货真价实的物理学泰斗。他在凝聚态物理领域(特别是自旋玻璃系统)的造诣极深,但他最“出圈”的贡献,却是顺手把物理学的能量概念借给了计算科学。
- 核心贡献:
- Hopfield Network:1982 年,他提出了著名的 Hopfield 网络。他天才般地发现,通过定义一个“能量函数”,神经网络的记忆检索过程可以被数学化为一个物理系统寻找“能量最低点”的过程。
- AI 的物理奠基人:这一思想直接启发了后来的波尔兹曼机 (Boltzmann Machine) 和 Geoffrey Hinton 的深度学习革命。如果不夸张地说,他就是那位把物理灵魂注入 AI 躯壳的普罗米修斯。
- 当前状态:宗师级人物。2024 年,他与 Geoffrey Hinton 共同斩获诺贝尔物理学奖,这一历史性时刻彻底终结了“物理学和 AI 有什么关系”的争论——关系大到能拿诺奖。
8. 姚顺宇 (Shunyu Yao)
(Google DeepMind 研究科学家)
-
加戏环节:是的,你没看错,不是腾讯 AI Lab 的姚顺雨!当今 AI 领域有两位拼音同为
Yao Shunyu的清华天才,切勿混淆。我们介绍的这位姚顺宇,在硅谷的名气更盛。2025 年 9 月 29 日,他正式官宣加入 Google DeepMind。在此之前,他在 Anthropic 短暂工作了一年,最终选择离开。据传离职原因很大程度上源于「价值观不合」——矛头直指公司 CEO Dario Amodei(即本文第一位主角)。据悉,Dario 某些近乎偏执的精神状态及令人不适的排华倾向,让这位清华才子最终选择了用脚投票。
-
物理背景:清华物理系本科特奖得主,斯坦福物理学博士(凝聚态物理/非厄米拓扑)。曾发表 PRL 顶刊,是标准的硬核物理学家。
-
核心贡献:
- 跨界降维:从凝聚态物理直接跨界 LLM,将拓扑学和复杂系统的思维引入模型行为研究,用物理视角解构 AI。
- 物理流对齐:此前在 Anthropic 期间,他致力于用物理学“第一性原理”攻克模型对齐(Alignment)难题,为 AI 安全研究打开了新视角。
-
当前状态:Google DeepMind 研究科学家。离开 Anthropic 后,正在新的平台上继续他的物理 AI 之旅。
为什么物理学家在 LLM 时代如鱼得水?
看完这份名单,你可能会问:为什么是物理学家?写代码不如 CS 的,搞数学不如 Math 的,怎么就统领了 AI 研究?
其实,物理学背景给了他们四把“隐藏武器”:
- 系统思维 (System Thinking):物理学家习惯看宏观规律。当 CS 工程师盯着该优化哪行代码时,物理学家在看相变、看临界点。Scaling Laws 本质上就是一种热力学定律般的宏观总结。
- 数学工具 (Mathematical Toolkit):统计物理、场论、高维空间几何,这些在物理里算家常便饭的工具,用来描述神经网络这种超高维参数系统简直是降维打击。神经网络的训练动态,在他们眼里可能就是个复杂的能量耗散系统。
- 实验范式 (Experimental Paradigm):物理学是建立在实验基础上的科学。不仅要跑通(Run),更要复现(Reproduce),要探究“为什么”(Why)。这种从现象中提炼理论,再用理论指导实验的闭环,正是当前 LLM 从“炼丹”走向科学的关键。
- 跨尺度直觉 (Cross-scale Intuition):从微观的粒子(神经元/参数)到宏观的宇宙(模型涌现能力),物理学家最擅长处理这种跨尺度的复杂性。如何从简单的单元交互涌现出复杂的智能?这不就是凝聚态物理在干的事吗?
所以,下次如果你在 AI 论文的作者列表里看到一个陌生的名字,不妨去查查他的背景。说不定,他刚刚才关掉了粒子对撞机的控制台,转身打开了 Jupyter Notebook。
写给正在选专业的同学们:别把路走窄了
站在 2026 年回望,计算机科学(CS)依然火热,但“非 CS 不学”的观念可能已经过时了。
如果你的志向是参与下一代 AI 的核心创新,而不仅仅是做一个“调包侠”,那么请记住:AI 的本质是数学和物理的某种投影。
- 基础学科的护城河更深:编程语言和框架每三年一换,但微积分、线性代数、统计力学和量子场论的规律恒久不变。掌握这些“第一性原理”,你就能在技术浪潮的更迭中透过现象看本质。
- 跨界才是新常态:未来的顶级 AI 人才,很可能是“物理 + AI”、“生物 + AI”或者“脑科学 + AI”的复合体。不要害怕学习那些看似“枯燥”的基础理论,它们是你未来的核武器。
- 保持野心与好奇:不要因为自己是学物理、数学甚至是哲学的就觉得离 AI 很远。正如文中这些先驱证明的,当硬核的科学思维遇上强大的计算力,往往能炸出最绚丽的火花。
注:本文梳理的人物任职及研究方向信息收集截至 2026 年 1 月 26 日。在这个日新月异的行业,他们注定持续进化,为 AGI 的未来发光发热。