Tom Lee:华尔街与加密世界的关键桥梁

【2025加密市场10大风云人物】 他是连接华尔街与加密世界的"关键桥梁"——Tom Lee,从传统金融分析师到加密资产布道者,他用华尔街能理解的语言重新定义了加密市场的价值表达。 说起Tom Lee在加密圈的影响力,大家都盯着他的价格预测准不准、赚了多少钱,但2025年的他,用实际行动证明了:他最牛的地方是第一个把华尔街那套分析框架带到了加密世界,这才是真正的价值所在。 Tom Lee是华尔街最早喊多比特币的分析师之一,而且影响特别大——但他绝不是只会猜价格的。2017年那会主流金融圈提起比特币就翻白眼,他却敢说比特币能涨到25,000美元。这个预测让他一炮而红,更重要的是,他给比特币搞出了一套能让华尔街认真对待的估值方法。 估值模型:加密资产的华尔街语言 2018年,Lee搞出了比特币痛苦指数(BMI),还有成本模型和网络效应模型——这可是华尔街第一次认可的比特币估值框架。这些模型最厉害的地方,是用传统金融机构听得懂的话解释了加密资产为啥值钱,直接给机构投资者进加密市场扫清了认知障碍。 以太坊超级周期:从理论到实践 2025年,Lee把目光转向了以太坊,说以太坊正进入"超级周期"。在他的猛吹之下,市场情绪直接被点燃,以太坊8月就突破历史高点,差点摸到5,000美元。更狠的是,他当董事长的BitMine公司疯狂囤以太坊,到2025年底手里攥着超过400万枚ETH,占总供应量的3.37%左右。 双向催化剂:连接两个世界的桥梁 Lee真正厉害的是他的"双向催化"能力——不仅把华尔街的分析框架和投资逻辑带到了加密世界,还把加密资产的创新价值讲给传统金融机构听。这种双向沟通直接打破了两个世界之间的墙,给2025年加密市场的机构化进程加了把劲。 “加密资产不需要被华尔街理解,而是需要用华尔街能理解的方式表达自己。” 2025年加密市场能被主流接受,Tom Lee这个桥梁角色太重要了。他用传统金融的话把加密世界的价值讲明白了,给机构资本大规模进加密市场铺了路,成了两个世界融合的关键催化剂。 「10个人-2025年的加密市场重要人物志」系列 本系列聚焦2025年加密市场的关键人物,通过他们的布局与决策,解读加密行业从边缘到主流的转变逻辑。 特朗普:政治权威成为加密价值的新锚点 Michael Saylor:企业财库革命的真正先驱 Tom Lee:华尔街与加密世界的关键桥梁 赵长鹏:币安Alpha 2.0的权力转型 Vitalik Buterin:去中心化理想与机构化现实的平衡者 金正恩:国家级加密财政的极端实践 马斯克:加密市场"强人时代"的符号 孙宇晨:加密世界的"规则玩家" Brian Armstrong:加密世界的"合规基础设施建筑师" Peter Thiel:去中心化世界的"中心化帝国建造者"

ZHANG.z | October 24, 2025 | 5 min | Shanghai

Michael Saylor:企业财库革命的真正先驱

【2025加密市场10大风云人物】 他是改写企业财库规则的"数字资产先锋"——Michael Saylor,从传统软件企业家到加密资产布道者,他用比特币为企业价值储存开辟了全新路径。 说起Saylor和Strategy的比特币持仓,大家都盯着价格涨跌和市值数字,但2025年的他,用实际行动证明了:他彻底改写了企业财库的价值储存规则,这才是最值得关注的突破。 2020年8月,Strategy砸下2.5亿美元买了21,454枚比特币——这哪是普通投资?直接把比特币从投机工具变成了企业财务的标配,顺带让全球企业财库管理换了个玩法。 DAT模型:企业财库的新玩法 Saylor捣鼓出的"数字资产财库(DAT)模型",给企业界重新定义了价值储存——哪是简单调调资产配置?直接把传统企业财库那套全打翻了。他硬把比特币说成"抗通胀的数字黄金",给企业指了条不用吊死在法定货币上的新路子。 叙事重塑:从投机到长期资产 Saylor最绝的是,把比特币在企业圈的形象彻底扭转了。他见人就念叨:“我们不是炒币,是为了保护股东价值搞长期资产配置”。这套说辞居然真的让传统金融圈放下了对加密资产的偏见,把比特币当成了企业财库的"常规选项"。 行业浪潮:上市公司跟风持币 Strategy的示范效应,掀起了上市公司持币潮。据BitcoinTreasuries数据,现在已有192家上市公司持有约109万枚比特币,占全球流通量的5.45%。哪怕最近市场调整导致Strategy股价下跌,Saylor仍咬死长期策略——除非比特币跌破1万美元,否则绝不卖。 “企业财库的未来,或许不在银行账户里,而在区块链上。” Saylor的贡献哪是让一家公司囤点比特币这么简单?他直接给企业价值储存开了个新玩法。2025年加密市场能这么快被主流接受,他的DAT模型功不可没——就像在传统企业和加密资产之间搭了座桥,把加密货币硬生生推进了主流金融体系。 「10个人-2025年的加密市场重要人物志」系列 本系列聚焦2025年加密市场的关键人物,通过他们的布局与决策,解读加密行业从边缘到主流的转变逻辑。 特朗普:政治权威成为加密价值的新锚点 Michael Saylor:企业财库革命的真正先驱 Tom Lee:华尔街与加密世界的关键桥梁 赵长鹏:币安Alpha 2.0的权力转型 Vitalik Buterin:去中心化理想与机构化现实的平衡者 金正恩:国家级加密财政的极端实践 马斯克:加密市场"强人时代"的符号 孙宇晨:加密世界的"规则玩家" Brian Armstrong:加密世界的"合规基础设施建筑师" Peter Thiel:去中心化世界的"中心化帝国建造者"

ZHANG.z | October 17, 2025 | 4 min | Shanghai

特朗普:政治权威成为加密价值的新锚点

【2025加密市场10大风云人物】 他是用政治权威重新定义加密价值的"权力玩家"——特朗普,从总统身份到加密代币,他将政治资本直接兑换为数字资产价值,开创了加密市场的全新玩法。 说起特朗普的加密布局,大家都盯着"总统代币"的价格疯涨和他的个人财富,但2025年的他,用实际行动证明了:政治权威正成为加密资产价值的新锚点,这才是最值得关注的转变。 2025年1月,特朗普就职前三天在Solana链上推出"Trump"代币,借总统身份的隐性背书,价格一度冲至75美元,净赚3.5亿美元。这可不是普通的名人代币炒作,而是把政治权力直接换成加密价值的标志性事件。 总统代币:政治资本的加密变现 特朗普的"总统代币"不是临时起意的资本游戏,而是精心设计的政治-金融联动工具。它把总统影响力直接绑在数字资产上,开创了"政治IP+加密资产"的全新变现玩法——核心不是技术有多新,而是权力背书带来的价值转移。 行政命令:加密行业的制度重构 特朗普政府连番发布行政命令:禁止CBDC、设立"美国战略比特币储备"、签署《GENIUS Act》,一步步重构加密行业的规则。这些政策既让比特币在国家金融体系有了正式地位,也给稳定币搭好了监管框架,意味着加密货币正式融入全球金融体系了。 家族金融帝国:权力的延伸渗透 特朗普家族通过World Liberty Financial运营WLFI治理代币和USD1稳定币,进一步将政治权力延伸至金融领域。据《金融时报》统计,公司靠卖代币和稳定币业务赚了32亿美元以上,特朗普家族持有38%股权——政治权力正通过家族企业深度渗透加密金融领域。 当政治权威主动拥抱加密,它将成为比技术更强大的价值锚点。 特朗普的加密布局让我们看到了行业的深层变化:从追求去中心化的技术理想,转向和传统权力结构深度融合。政治权威正成为影响加密资产价值的关键变量,这或许是2025年加密行业最具冲击力的变革。 「10个人-2025年的加密市场重要人物志」系列 本系列聚焦2025年加密市场的关键人物,通过他们的布局与决策,解读加密行业从边缘到主流的转变逻辑。 特朗普:政治权威成为加密价值的新锚点 Michael Saylor:企业财库革命的真正先驱 Tom Lee:华尔街与加密世界的关键桥梁 赵长鹏:币安Alpha 2.0的权力转型 Vitalik Buterin:去中心化理想与机构化现实的平衡者 金正恩:国家级加密财政的极端实践 马斯克:加密市场"强人时代"的符号 孙宇晨:加密世界的"规则玩家" Brian Armstrong:加密世界的"合规基础设施建筑师" Peter Thiel:去中心化世界的"中心化帝国建造者"

ZHANG.z | October 10, 2025 | 5 min | Shanghai

【ChatGPT时刻05】Transformer代码解析:逐行理解架构实现

本文解读的是Alexander Rush等人创建的《The Annotated Transformer》,这是一篇教育性的技术博客文章,通过逐行代码注释的方式,详细解析了Transformer架构的PyTorch实现。虽然这不是一篇传统意义上的研究论文,但它为理解Transformer提供了最直观、最实用的方式,是学习Transformer实现的最佳资源之一。 “代码是最好的文档。"——这是带注释Transformer的核心思想。Transformer论文虽然提出了架构,但实现细节往往隐藏在代码中。带注释Transformer通过详细的代码注释和解释,使读者能够深入理解Transformer的每一个组件、每一行代码的作用,是连接理论和实践的重要桥梁。 带注释Transformer的核心价值是教育性和实用性:它不仅解释了Transformer的数学原理,还展示了如何用代码实现这些原理。通过逐行注释,读者可以: 理解实现细节:了解每个组件的具体实现 学习最佳实践:学习PyTorch的实现技巧 快速上手:可以直接使用代码进行实验 在当今大模型时代,理解Transformer的实现细节至关重要:GPT、BERT、T5等模型都基于Transformer架构。理解带注释Transformer,就是理解现代AI模型的实现基础。 本文将从架构概览、核心组件、实现细节、最佳实践四个维度深度解读带注释Transformer,包含完整的代码分析和实现技巧,并在文末提供阅读研究论文的时间线计划。 Transformer实现的学习挑战 问题一:理论与实现的差距 Transformer论文提供了架构设计,但实现细节往往不明确: 理论与实现的差距: 论文描述的是架构,代码需要处理细节 论文使用数学符号,代码使用具体数据结构 论文关注算法,代码需要处理工程问题 学习挑战: 如何将数学公式转化为代码? 如何处理边界情况和数值稳定性? 如何优化实现效率? 问题二:代码理解的困难 Transformer的实现代码往往复杂,难以理解: 代码理解的困难: 代码量大,难以快速理解 缺少注释,难以理解设计意图 实现技巧不明确,难以学习最佳实践 问题三:教育资源的缺乏 在Transformer刚提出时,详细的教育资源较少: 教育资源的缺乏: 缺少详细的实现教程 缺少代码级别的解释 缺少最佳实践的总结 带注释Transformer的核心组件 组件一:多头自注意力 数学定义: $$ \text{MultiHead}(Q, K, V) = \text{Concat}(\text{head}_1, \ldots, \text{head}_h)W^O $$ 其中 $\text{head}_i = \text{Attention}(QW_i^Q, KW_i^K, VW_i^V)$。 代码实现: class MultiHeadedAttention(nn.Module): def __init__(self, h, d_model, dropout=0.1): super().__init__() assert d_model % h == 0 self.d_k = d_model // h self.h = h self.linears = nn.ModuleList([nn.Linear(d_model, d_model) for _ in range(4)]) self.attn = None self.dropout = nn.Dropout(p=dropout) def forward(self, query, key, value, mask=None): nbatches = query.size(0) # 1) 线性投影并分割为h个头 query, key, value = [ lin(x).view(nbatches, -1, self.h, self.d_k).transpose(1, 2) for lin, x in zip(self.linears, (query, key, value)) ] # 2) 应用注意力 x, self.attn = attention(query, key, value, mask=mask, dropout=self.dropout) # 3) 拼接多头并应用最终线性层 x = x.transpose(1, 2).contiguous().view(nbatches, -1, self.h * self.d_k) return self.linears[-1](x) 关键实现细节: ...

ZHANG.z | October 8, 2025 | 15 min | Shanghai

【ChatGPT时刻04】Transformer:Attention Is All You Need

本文解读的是Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan N. Gomez、Łukasz Kaiser和Illia Polosukhin于2017年发表的里程碑论文《Attention Is All You Need》,该论文提出了Transformer架构,完全基于注意力机制,摒弃了循环和卷积结构,在机器翻译任务上取得了最先进的性能,同时训练速度更快、可并行性更强。这一突破不仅彻底改变了序列建模的范式,更为后续GPT、BERT等大语言模型奠定了架构基础,开启了现代AI的新时代。 “注意力即一切。"——这是Transformer论文的核心宣言。在Transformer之前,序列建模主要依赖RNN和CNN。RNN虽然能够处理序列,但难以并行化;CNN虽然可以并行化,但难以捕捉长距离依赖。Transformer通过完全基于注意力机制的架构,同时解决了这两个问题,实现了并行化和长距离依赖的完美结合。 Transformer的核心创新是自注意力机制(Self-Attention):每个位置都可以直接关注序列中的所有位置,无需通过循环或卷积逐步传播信息。这种设计使得Transformer能够: 并行计算:所有位置可以同时计算,训练速度大幅提升 长距离依赖:直接建模任意距离的依赖关系 可解释性:注意力权重提供了模型决策的可解释性 在当今大语言模型时代,Transformer已经成为AI的基础架构:GPT、BERT、T5、PaLM等所有大模型都基于Transformer。理解Transformer,就是理解现代AI的基石。 本文将从问题根源、核心机制、解决方案、实践评估四个维度深度解读Transformer,包含完整的数学推导、架构分析和实验评估,并在文末提供阅读研究论文的时间线计划。 序列建模的传统局限 问题一:RNN的序列化计算瓶颈 传统RNN需要按顺序处理序列,无法并行化: 序列化计算的局限: 每个时间步依赖前一时间步的输出 计算必须串行进行,无法并行 训练时间长,难以处理大规模数据 数学表述:对于序列 $x_1, x_2, \ldots, x_n$,RNN的计算为: $$ h_t = f(h_{t-1}, x_t) $$ 其中 $h_t$ 的计算必须等待 $h_{t-1}$ 完成,无法并行。 问题二:CNN的感受野限制 CNN虽然可以并行化,但感受野受限: 感受野的局限: 需要多层卷积才能扩大感受野 感受野的增长是线性的,需要 $O(n)$ 层才能覆盖长度为 $n$ 的序列 难以捕捉长距离依赖 数学分析:对于 $k \times k$ 卷积核,经过 $L$ 层后,感受野为 $L(k-1) + 1$。要覆盖长度为 $n$ 的序列,需要 $L \geq \frac{n-1}{k-1}$ 层。 ...

ZHANG.z | September 21, 2025 | 14 min | Shanghai