比特币Layer2扩容解决方案解析

比特币Layer2扩容的必要性 随着比特币网络的发展,交易拥堵和高手续费问题日益突出。Layer2扩容技术为解决这些问题提供了有效路径。 主流Layer2方案 闪电网络(Lightning Network): 基于支付通道的链下交易网络 支持即时小额支付,手续费极低 已成为比特币最成熟的Layer2方案 RGB协议: 基于比特币区块链的保密智能合约系统 支持资产发行和复杂金融应用 保持比特币的安全性同时扩展功能 侧链技术(如Liquid Network): 独立区块链与比特币主链双向锚定 提供更快的交易确认和隐私保护 适合机构级资产管理 技术优势 Layer2方案的核心优势在于: 保持安全性:依赖比特币主链的工作量证明安全 提升效率:交易处理速度提升数百倍 降低成本:手续费仅为主链的几十分之一 扩展功能:支持主链不具备的智能合约能力 比特币Layer2生态的发展,正在将比特币从单纯的价值存储拓展为更完善的金融基础设施。

ZHANG.z" | March 18, 2025 | 1 min | Shanghai

AI治理:欧盟在立法,美国在扯皮,中国在试错

欧盟AI法案正式生效那天,我在布鲁塞尔参加治理论坛。论坛上,欧洲专家拍着桌子说:“绝不允许AI伤害人类!“中国专家则缓缓回应:“没有发展,就没有安全的基础。“两种治理思路的碰撞,让整个会场陷入沉默。 我坐在台下,脑子里闪过一个画面:三年前,我在硅谷参加AI伦理研讨会,当时所有人都在讨论"如何监管AI”,但三年过去了,只有欧盟真正立了法,美国还在国会扯皮,中国则在实践中试错。 看现在:三种治理路径的分化 欧盟把AI分成四个风险等级,高风险AI(医疗设备、教育工具)需要严格审批,思路是"风险防控优先”。他们的逻辑是:先立法,再发展。这是典型的"安全第一"路径。 美国还在国会扯皮,法案难产。他们的逻辑是:让市场自己调节,政府不要过度干预。这是典型的"市场优先"路径。 中国已经发布了《生成式人工智能服务管理暂行办法》修订版,强调"发展与安全并重”。他们的逻辑是:在发展中规范,在规范中发展。这是典型的"平衡发展"路径。 关键洞察:这不是治理理念的分歧,是治理节奏的差异。欧盟跑得太快,美国跑得太慢,中国在中间找平衡。 想深一层:监管与创新的两难 上周跟一家德国AI创业公司聊天,他们说已经在考虑把研发中心搬到新加坡——“欧盟的审批流程太繁琐,我们等不起。“这家公司做的是AI医疗诊断,技术很先进,但欧盟的审批周期至少需要18个月。 而中国的弹性治理给了企业更多试错空间。百度文心一言和抖音AI都发展得很快,虽然也出过一些争议,但整体上是在可控范围内快速迭代。这种"先发展,后规范"的模式,让中国AI应用走在了全球前列。 但这也带来风险:过于宽松的监管可能让一些有问题的AI应用流入市场。去年某AI聊天机器人就因为性别歧视言论引发争议,如果监管更严格,可能就不会出现这种情况。 关键洞察:监管与创新是两难。过于严格会扼杀创新,过于宽松会带来风险。关键是如何在两者之间找到平衡点。 望前方:全球治理的协同与竞争 2025年,我判断会出现"治理竞赛”:各国会互相借鉴最佳实践,形成更灵活的全球治理框架。欧盟的严格监管会被美国借鉴,中国的弹性治理会被欧盟学习,美国的市场机制会被中国参考。 毕竟,AI是全人类的技术,需要全球协同的治理方案。但协同不等于统一,每个国家都有自己的国情和价值观,治理路径也会不同。 治理不是枷锁,而是护栏。好的治理能保护创新,而不是扼杀它。 AI治理的终极目标,从来不是阻止技术发展,而是让技术更好地服务人类。欧盟在立法,美国在扯皮,中国在试错——但最终,我们都需要找到自己的平衡点。 2025年,我期待看到欧盟的灵活性,也期待看到美国的立法,更期待看到中国的规范。

ZHANG.z" | March 12, 2025 | 5 min | Shanghai

H200发布:NVIDIA赢了性能战,但可能输了未来

今天早上收到加州朋友Mike的邮件,附件是NVIDIA H200的内部评测报告。他在NVIDIA做架构师,每次有新品都会偷偷给我发点料。我盯着性能测试图看了半小时,H200比H100提升了35%,但真正让我倒吸凉气的,不是性能数字,而是CUDA生态的数据。 “全球95%以上的AI训练任务都跑在CUDA上,“Mike在微信里说,“我们刚更新了CUDA 12.5,专门优化了H200。那些想用AMD或其他芯片的公司,光是迁移代码就得花半年。“我回他:“所以NVIDIA已经不是芯片公司了,是AI时代的Windows?“他发了个笑脸:“差不多吧。” 但我心里在想:Windows当年也以为自己无敌,结果被移动互联网时代抛弃了。NVIDIA的CUDA生态,会不会也面临同样的命运? 从表面看:性能数字背后的生态霸权 表面上看,这是"H200性能提升35%“的技术突破。但真正让NVIDIA无敌的,不是芯片性能,而是CUDA生态。 芯片性能可以追上——AMD的MI300X在某些场景已经接近H100,中国的昇腾910B在推理场景甚至超过H100。但生态壁垒一旦形成,几乎无法突破。全球95%的AI训练任务都跑在CUDA上,这意味着:即使你的芯片性能更强,开发者也不会用,因为迁移成本太高。 NVIDIA已经从一家芯片公司,变成了AI时代的Windows。Windows当年靠操作系统垄断PC市场,NVIDIA靠CUDA生态垄断AI市场。 关键洞察:这不是芯片战争,是生态战争。性能可以追赶,生态难以复制。 从深层看:中国芯片的差异化突围 想起上周去华为上海研究所拜访的场景。负责昇腾910B的李工带我参观实验室,指着一台堆满芯片的服务器说:“我们不跟NVIDIA在训练芯片正面死磕,昇腾910B专门优化推理场景。在智慧城市视频分析上,我们的性能已经超过了H100。” 不仅华为,寒武纪的思元590芯片正在给智能加油站做边缘计算,实时监控油枪状态、预测库存;地平线的征程6芯片在自动驾驶领域也有不错的表现。中国芯片公司选择了一条差异化的突围路径:不拼通用性能,而是深耕垂直场景,把特定领域的AI芯片做到极致。 去年在深圳参加AI峰会,看到一家创业公司用昇腾芯片做工业机器人实时控制,延迟比NVIDIA的方案低40%。美国的技术封锁反而成了中国芯片产业的催化剂——以前大家都觉得买NVIDIA的芯片就行,现在不得不自己搞研发。 翻出三年前的笔记,当时我判断"中国芯片10年内赶不上美国”。现在看来,我错了——不是赶不上,而是走了一条完全不同的路。NVIDIA在通用计算领域狂飙,中国芯片则在垂直场景深耕。 关键洞察:芯片战争的终局,不是谁的性能更强,而是谁能更好地服务用户。NVIDIA赢了通用性能,中国芯片可能赢了垂直场景。 从未来看:生态与场景的终极博弈 晚上刷朋友圈,看到Mike发了张NVIDIA总部的照片,配文:“H200发布,我们赢了。“我给他点了个赞,心里却在想:这场芯片战争,才刚刚开始。 NVIDIA赢了性能战,但可能输了未来。因为未来的AI应用,不是"一个模型跑遍所有场景”,而是"每个场景都有专属芯片”。当自动驾驶、智慧城市、工业机器人这些垂直场景成为主流时,NVIDIA的通用芯片优势还能保持多久? 2025年,我判断会看到更多融合:NVIDIA会加强垂直场景优化(比如推出专门的自动驾驶芯片),中国芯片会加强生态建设(比如推出自己的开发框架)。 芯片战争的终局,不是谁的性能更强,而是谁能更好地服务用户。NVIDIA赢了性能战,中国芯片却可能赢了未来的场景战。 2025年,我期待看到NVIDIA的场景化,也期待看到中国芯片的生态化。

ZHANG.z" | February 20, 2025 | 6 min | Shanghai

【AI数学】30分钟拆解AI核心公式-复习笔记

上一篇我们搞定了符号,这一篇直接拆解AI论文中出现频率最高的6个公式。每个公式都是:问题→公式→拆解→代码。 前置要求:读完上一篇符号速查手册。 一、Softmax与交叉熵损失 问题:如何把模型输出变成概率? 神经网络输出的是一堆数字(logits),可能是负数、可能很大。我们需要把它们变成概率分布(非负、和为1)。 公式 $$\text{softmax}(x_i) = \frac{e^{x_i}}{\sum_{j=1}^{K} e^{x_j}}$$ 拆解 $e^{x_i}$:指数函数,把任意数变成正数 $\sum_{j=1}^{K} e^{x_j}$:所有指数的和,用于归一化 除法:确保结果和为1 为什么用指数? 因为指数函数会放大差异——大的更大,小的更小,让模型更"自信"。 代码实现 import numpy as np def softmax(x): """ 输入: x, shape (K,) 或 (batch, K) 输出: 概率分布,shape同输入 """ # 减去最大值防止数值溢出(数学上等价) exp_x = np.exp(x - np.max(x, axis=-1, keepdims=True)) return exp_x / np.sum(exp_x, axis=-1, keepdims=True) # 示例 logits = np.array([2.0, 1.0, 0.1]) probs = softmax(logits) print(probs) # [0.659, 0.242, 0.099] print(probs.sum()) # 1.0 交叉熵损失 有了概率,如何衡量预测和真实标签的差距? $$L = -\sum_{i=1}^{K} y_i \log(\hat{y}_i)$$ 其中 $y_i$ 是真实标签(one-hot),$\hat{y}_i$ 是预测概率。 简化形式(单标签分类): $$L = -\log(\hat{y}_{correct})$$ 就是正确类别的概率取负对数。概率越高,损失越小。 def cross_entropy_loss(probs, label): """ probs: softmax输出的概率, shape (K,) label: 正确类别的索引, int """ return -np.log(probs[label] + 1e-10) # 加小数防止log(0) # 示例 probs = np.array([0.7, 0.2, 0.1]) loss = cross_entropy_loss(probs, label=0) # 正确类别是0 print(loss) # 0.357(概率0.7对应的损失) 二、注意力机制(Attention) 问题:如何让模型"关注"输入的不同部分? 翻译"我爱北京"时,生成"Beijing"应该主要关注"北京"这个词,而不是平均关注所有词。 ...

ZHANG.z | January 16, 2025 | 27 min | Shanghai

【AI数学】30分钟搞懂AI论文里的数学符号-复习笔记

读AI论文最大的障碍不是英语,是数学符号。看到 $\sum$、$\nabla$、$\mathbb{E}$ 就头大?本文用符号→读法→含义→代码的模式,30分钟帮你扫清障碍。 前置要求:高中数学水平,会基础Python。 一、求和与连乘 1.1 求和符号 $\sum$ 读法:Sigma(西格玛),读作"sum" 含义:把一堆数加起来 公式示例: $$\sum_{i=1}^{n} x_i = x_1 + x_2 + \cdots + x_n$$ 论文中常见形式: 损失函数:$L = \sum_{i=1}^{N} \ell(y_i, \hat{y}_i)$(所有样本的损失加起来) 注意力权重:$c = \sum_{i=1}^{T} \alpha_i h_i$(加权求和) Python实现: import numpy as np # 方法1:直接求和 x = [1, 2, 3, 4, 5] result = sum(x) # 15 # 方法2:NumPy x = np.array([1, 2, 3, 4, 5]) result = np.sum(x) # 15 # 方法3:带条件的求和(论文常见) # 例如:只对正数求和 result = sum(xi for xi in x if xi > 0) 1.2 连乘符号 $\prod$ 读法:Pi(派),读作"product" 含义:把一堆数乘起来 公式示例: $$\prod_{i=1}^{n} x_i = x_1 \times x_2 \times \cdots \times x_n$$ 论文中常见形式: ...

ZHANG.z | January 15, 2025 | 25 min | Shanghai