您的位置: 首页 > 必威体育 > 必威体育APP

必威官方网站- Betway APP下载- 2026世界杯指定体育平台中国半导体或反超美国!硅谷资深玩家爆料:H100会越用越贵!内存涨价或让未来手机体验变差!给马斯克降火:太空GPU十年内做不成

发布日期:2026-03-20 22:16:48 浏览次数:

  betway官方网站,betway网址,betway链接,必威体育app,必威中国,必威官方网站,必威体育登录入口,必威体育官网网址,必威体育链接,必威体育2025,必威体育2026,必威体育世界杯

必威官方网站- Betway APP下载- 2026世界杯指定体育平台中国半导体或反超美国!硅谷资深玩家爆料:H100会越用越贵!内存涨价或让未来手机体验变差!给马斯克降火:太空GPU十年内做不成

  Dylan:市场上确实存在可调配的算力,并不是所有合同都是五年长期协议。有些是2023、2024甚至2025年的H100短期合同,比如一年、两年甚至按需租用。当这些合同到期后,谁愿意出更高价格,谁就能拿到这些资源。现在我们已经看到NVIDIA H100的价格明显上涨,有人愿意签每单位超过2美元的长期合同。我甚至见过一些AI实验室以2.4美元签两到三年的合同。考虑到Hopper架构五年摊销成本大约是1.4美元,现在两年后还能签到2.4美元,这个利润是极高的。这种高价会把其他客户挤出市场,不管是

  Dylan:如果我现在想要Hopper,其实市场上还是有一些剩余产能的。虽然像Oracle或CoreWeave这类厂商的大部分产能已经通过长期合同锁定了,但就Blackwell来说,这个季度上线的基本已经被卖光了。有些情况下,他们甚至没达到原本承诺的交付量,因为数据中心建设存在延误,不只是这两家,还包括Nebius、Microsoft、Amazon和Google。不过市场上仍然有不少neocloud,以及部分超大规模云厂,正在建设尚未售出的产能,或者原本计划用于内部、且未必直接用于AGI的算力,现在也可能转向对外出售。对于Anthropic来说,他们甚至不需要直接持有全部算力——可以由Amazon提供算力通过Bedrock服务,或者由Google通过Vertex提供,或者Microsoft通过Foundry提供,然后与Anthropic进行收入分成,反过来也可以。

  主持人:这点挺有意思,否则你可能会觉得“最强模型”是个快速贬值的资产,因为三个月后就可能被超越。但现在看,它的重要性在于可以提前锁定算力、拿到更好的价格。再延伸一下,过去很多人强调GPU的折旧周期很短,比如两年。像Michael Burry这类看空者认为技术进步太快,GPU用两年就该折旧完,这会提高年度摊销成本,让云计算生意变得不那么赚钱。但你现在的说法似乎是,折旧周期可能反而更长。如果未来AI需求爆发,甚至到2030年还需要重新启用A100,那折旧周期就会非常长。

  但另一种观点是,如果你没有签长期合同,由于NVIDIA每两年性能翻三到四倍,而价格只涨一倍或50%,那么H100的市场价格会随着新一代芯片(Blackwell、Rubin)的大规模部署而不断下降,比如从2美元降到1美元,再到0.7美元。另一种视角则是“这块芯片能为你创造多少价值”。如果新芯片供应无限,那价格确实会随性能价格比下降。但现实是半导体供给和部署周期极其受限,因此真正决定价格的,是这块芯片今天能产生多少价值,而不是替代品的理论价格。

  综合来看,在这种竞争环境下,虽然利润不会无限扩张,但一个有意思的现象是:今天一块H100的价值,反而高于三年前。进一步推演,如果真的出现AGI,比如“服务器里的数字人”,哪怕粗略估算,人脑算力约为1e15 FLOPS,而H100也在这个量级。虽然人脑在存储上远超(可能是PB级,而H100只有80GB),但人脑本身也是高度稀疏的MoE系统。如果一个人类知识工作者每年可以创造六位数价值,那么对应算力的经济价值上限会被彻底重估。

  主持人:如果一块NVIDIA H100真的能产出接近人类的价值,如果服务器上真的跑的是“人类”,那它可能几个月就能回本。所以我当时采访Dario时想表达的重点,并不是我认为奇点两年内就会到来,因此他必须疯狂买算力——虽然从收入角度看他确实需要更多算力。我真正想说的是:按照他自己的判断,如果两年内就可能出现“天才数据中心”,最多不超过五年,而这样的系统应该能产生数万亿美元收入,那他在算力上的保守态度就显得不一致,尤其是相比OpenAI更激进的策略。我这个意思后来被误解了,有人说我在鼓动一家几千亿美元规模公司的CEO“all in”,其实我只是觉得他的内部逻辑前后不一致。

  主持人:这就解释一切了。另外有个经济学效应叫Alchian-Allen,大意是如果对高质量和低质量商品同时增加固定成本,会让消费者更倾向于选择高质量商品。比如一个好苹果2美元,差一点的1美元,如果统一加1美元关税,就变成3美元和2美元,原本价格差是2倍,现在变成1.5倍,差距缩小了。我在想,这套逻辑放到AI里是否意味着:如果GPU价格整体上涨,相当于算力的固定成本提高,那么用户会更愿意为稍微更好的模型支付更高溢价,因为反正算力已经很贵了。比如Hopper从2美元涨到3美元,如果它能跑100万token的Opus,或者200万token的Sonnet,那随着GPU成本上升,两者之间的价格差反而被压缩。

  Dylan:这个逻辑是成立的。现在所有的使用量和收入都集中在最好的模型上。在算力受限的世界里会发生两件事:第一,那些没有“承诺问题”、提前签下五年算力合同的公司,会锁定巨大的利润优势,因为它们用的是两三年前的价格。如果别人三年前签的合同到期,现在再按新价格买算力,而价格已经反映模型价值,那成本会高很多,所以提前锁定的人利润更高。第二,市场上绝大多数算力其实都在长期合同中,短期可以灵活调配的只是一小部分。

  Dylan:这是个关键问题。随着模型价值提升,云厂确实有一定提价空间,但也受限。比如CoreWeave目前超过98%的算力合同期限都在三年以上,它其实很难动态提价。但另一方面,每年新增的算力规模都远超过去。比如Meta今年新增的算力,接近它2022年为WhatsApp、Instagram、Facebook提供服务时的全部算力总和,还不包括AI。这种增长同样发生在CoreWeave、Google、Amazon等公司身上。新增算力是按新价格成交的,而在AI“起飞期”,成本主要来自这些新增部分,而不是旧合同。

  因此真正掌握定价权的,是基础设施提供方,包括云厂、neocloud,以及更上游的芯片和内存供应商。比如NVIDIA掌握着绝大部分算力核心资源,已经签下约900亿美元长期合同,还在和内存厂谈三年期协议。再往下还有通过Broadcom、AMD参与的厂商。这些公司锁定了产能,就掌握了主动权。TSMC目前没有大幅涨价,但内存厂商已经在提价,甚至可能再翻倍或三倍,同时也在签长期合同。最终利润会在云厂、芯片厂和内存厂之间分配,除非TSMC或ASML未来也大幅提价。而模型厂商能否获得高利润?至少今年,它们的利润率很可能会显著提升。

  Dylan:ASML 实际上已经出货 EUV 光刻机接近十年,但真正进入大规模量产大概是在 2020 年左右。不过,这些设备并不是一成不变的。早期设备的吞吐量更低,还有一些关键指标,比如 overlay(叠加精度),这些年都在持续改进。简单来说,就是你在晶圆上叠加一层又一层结构,中间会经历沉积、刻蚀、清洗等几十道工序,然后再做下一层光刻。overlay 指的是在这些复杂步骤之后,下一层图形还能否精准对齐到之前的结构上,比如把金属连线和通孔精准连接,再叠加下一层垂直方向的连线。

  Dylan:是的,而且这种供应链关系很多时候并不是直接的,而是通过像 Carl Zeiss 这样的厂商再往下延伸出更多层级的供应商网络。你可以想象,本质上这是两个晶圆大小的物体在高速运动,同时还要保持纳米级甚至更高精度的对齐。整个系统的 overlay,也就是层与层之间的对齐误差,大约要控制在 3 纳米量级。这意味着每一个子系统自身的运动精度必须远小于这个数,通常要做到亚纳米级,因为误差是会逐层叠加的。

  主持人:虽然西方在技术推进上并没有大幅加速,但中国这边……你觉得到了2030年,他们会不会已经掌握EUV、2纳米之类的技术?他们现在明显是“全力押注半导体”,而且在大规模生产。我真正好奇的是:什么时候会出现一个交叉点——我们的制程优势已经削弱到一定程度,而他们的规模优势已经增强到足够强?另外,如果他们把整个供应链都在一个国家内实现本土化,而不是像现在这样依赖德国、荷兰等分散供应商,这是否会让中国在算力产出规模上占据领先?

  Dylan:截至目前,中国还没有实现完全本土化的半导体供应链。但到2030年,有可能做到。现在中国所有的7nm和14nm产能,仍然依赖ASML的DUV设备。他们可以从ASML进口相当多设备,但ASML的大部分收入,尤其是EUV,几乎全部来自中国以外。整体来看,规模优势仍然在西方,以及中国台湾、日本、韩国这一侧。不过中国确实在尝试自研DUV和EUV设备,关键问题在于:他们推进的速度、产能扩张能力以及质量提升的节奏。目前还没有看到这些全面实现,但我对未来5到10年是相当乐观的。他们会显著扩大产能,把整个体系推入高速发展阶段,因为他们投入了更多工程师,也更愿意砸资金解决问题。到2030年,DUV实现完全国产化我认为基本可以做到;至于EUV,我认为会有可运行的设备,但还难以实现大规模量产。

  Dylan:从AI模型来看,过去三到六个月,中国模型已经处在一个相当有竞争力的位置。虽然像Opus 4.6和GPT 5.4拉开了一点差距,但新的中国模型还会继续出现。接下来一个变化是:从“卖token”转向“卖自动化白领工作”,比如自动软件工程师。这种模式下,模型的推理过程被隐藏,美国模型向中国模型蒸馏能力会下降。同时再看算力规模:OpenAI去年约2GW,Anthropic今年也将超过2GW,明年两者都可能达到10GW级别。而中国AI实验室的算力扩张速度明显更慢。

  Dylan:在某个时间点,今年和明年,美国经济可能会因为这些资本支出、这些模型带来的收入,以及下游供应链的联动,开始加速增长。而中国目前还没有形成这种规模——他们还没有建立起足够大的基础设施,用于投入模型、达到能力门槛,并在如此规模上部署这些模型。比如Anthropic现在大约是200亿美元ARR,按照The Information此前披露的数据,其利润率低于50%。这意味着他们大约用130亿到140亿美元的算力租赁成本,背后对应的是约500亿美元的CapEx投入,才支撑起当前的收入规模。

  我之前问过一个类似问题:既然 EUV 设备短缺,能不能退回到 7nm;那在内存上也有类似思路——HBM 本质上是 DRAM,但单位晶圆面积的比特数反而更少,只有原来的三到四分之一。未来的加速器,是否可以直接用普通 DRAM 替代 HBM,从而获得更大的容量?我的逻辑是,如果未来是 agent 在异步执行任务,而不是实时对话,也许对延迟要求没那么高,就可以接受更低带宽。HBM 的优势是带宽,那有没有可能做一种“慢速模式”的模型,比如类似 Anthropic 的 Claude,做一个“Claude Slow”?