本页为 论文解读系列 的目录与阅读计划:列出阅读原因、组合方式、完整列表与发布状态。每篇解读文末不再重复长表,仅提供指向本页的链接;每次发布新论文解读时,会同步更新本页目录与文末的「最后更新时间」。
为什么做这个阅读计划
- 清单来源:Ilya Sutskever(OpenAI 联合创始人)推荐的约 30 篇经典论文/博客/课程(实际约 27 篇),覆盖从基础理论到前沿应用的深度学习核心知识。
- 阅读原因:系统理解现代 AI 技术演进路径,避免碎片化;按主题分类便于组合阅读(如先 CNN 再注意力再规模化)。
- 组合建议:可按分类顺序(基础理论 → RNN → CNN → 注意力 → 优化/规模 → 推理与生成 → 语音)阅读,也可按发布时间或兴趣跳读;每篇解读文内会标明所属分类。
论文分类索引与发布状态
以下表格为完整列表:博客解读 一列为「已发布」则带链接,为「待完成」则暂无解读。原文链接均可直接访问。
1. 基础理论与信息论
| 论文 | 原文链接 | 博客解读 |
|---|---|---|
| A Tutorial Introduction to the Minimum Description Length Principle | arXiv | 【论文解读02】最小描述长度原理教程 |
| Keeping Neural Networks Simple by Minimizing the Description Length of the Weights | Paper | 【论文解读03】通过最小化权重描述长度简化神经网络 |
| The First Law of Complexodynamics | arXiv | 【论文解读04】复杂动力学第一定律 |
| Kolmogorov Complexity and Algorithmic Randomness | Book | 【论文解读26】柯尔莫哥洛夫复杂度与算法随机性 |
| Machine Super Intelligence | Paper | 【论文解读27】机器超级智能 |
| Quantifying the Rise and Fall of Complexity in Closed Systems: the Coffee Automaton | arXiv | 【论文解读25】咖啡自动机:封闭系统中复杂性的兴衰 |
2. 循环神经网络(RNN/LSTM)
| 论文 | 原文链接 | 博客解读 |
|---|---|---|
| The Unreasonable Effectiveness of Recurrent Neural Networks | Blog | 【论文解读05】循环神经网络的不可思议的有效性 |
| Understanding LSTM Networks | Blog | 【论文解读06】理解LSTM网络 |
| Recurrent Neural Network Regularization | arXiv | 【论文解读07】RNN正则化 |
| Neural Turing Machines | arXiv | 【论文解读16】神经图灵机 |
| Relational Recurrent Neural Networks | arXiv | 【论文解读15】关系循环神经网络 |
3. 卷积神经网络(CNN)
| 论文 | 原文链接 | 博客解读 |
|---|---|---|
| Stanford’s CS231n Convolutional Neural Networks for Visual Recognition | Course | 【论文/课程01】CS231n:卷积神经网络与视觉识别课程 |
| ImageNet Classification with Deep Convolutional Neural Networks (AlexNet) | Paper | 【论文解读09】AlexNet:深度学习革命的起点 |
| Deep Residual Learning for Image Recognition (ResNet) | arXiv | 【论文解读10】ResNet:深度残差学习 |
| Identity Mappings in Deep Residual Networks | arXiv | 【论文解读11】ResNet改进:恒等映射 |
| Multi-Scale Context Aggregation by Dilated Convolutions | arXiv | 【论文解读12】膨胀卷积:多尺度上下文聚合 |
4. 注意力机制与序列模型
| 论文 | 原文链接 | 博客解读 |
|---|---|---|
| Neural Machine Translation by Jointly Learning to Align and Translate | arXiv | 待完成 |
| Attention is All You Need (Transformer) | arXiv | 待完成 |
| The Annotated Transformer | Blog | 待完成 |
| Order Matters: Sequence to Sequence for Sets | arXiv | 【论文解读14】顺序的重要性:集合的序列到序列 |
| Pointer Networks | arXiv | 【论文解读13】指针网络 |
5. 模型优化与规模化
| 论文 | 原文链接 | 博客解读 |
|---|---|---|
| GPipe: Easy Scaling with Micro-Batch Pipeline Parallelism | arXiv | 【论文解读23】GPipe:大规模模型训练 |
| Scaling Laws for Neural Language Models | arXiv | 待完成 |
6. 推理与生成模型
| 论文 | 原文链接 | 博客解读 |
|---|---|---|
| A Simple Neural Network Module for Relational Reasoning | arXiv | 【论文解读20】关系推理的简单神经网络模块 |
| Variational Lossy Autoencoder | arXiv | 【论文解读19】变分有损自编码器 |
| Neural Message Passing for Quantum Chemistry | arXiv | 【论文解读21】神经消息传递与量子化学 |
7. 语音与复杂系统
| 论文 | 原文链接 | 博客解读 |
|---|---|---|
| Deep Speech 2: End-to-End Speech Recognition in English and Mandarin | arXiv | 【论文解读22】Deep Speech 2:端到端语音识别 |
系列说明
- 清单实际数量:27 篇(含论文、博客、课程),「Top 30」为约数表述。
- 内容类型:部分为博客/课程(如 CS231n、LSTM 解读),是理解核心概念的优质入门资源。
- 链接说明:arXiv 链接可直连论文原文,博客/课程链接为官方或权威解读页面。
最后更新时间:2026-02-10(与最新一篇解读发布同步;每次发布新论文解读时更新本日期。)