|
妃临天下大空头伯里(Michael Burry)最近搅动了市场。但他持有的1万份英伟达的看跌期权和5万份帕兰提尔的看跌期权,被几份主流财经媒体夸大了。他做出了澄清,买了920万美元的帕兰提尔的看跌期权,而不是财经媒体报道的9.12亿美元。1万份英伟达看跌期权,市价大约1千万美元,也不是媒体报道的1.87亿美元。
伯里还亮出了自己的仓位,赌到2027年,英伟达和帕兰提尔的股价,分别跌至110美元和50美元。不过伯里称这些看跌期权他已经在上个月卖出。他还展示了已经从SEC注销了他的Scion资产管理公司,不过正在筹谋再干一票大的。
伯里是电影《大空头》的原型,曾在 2008 年金融危机前成功做空次贷。他这次是做空AI,今年他一直警告说,人工智能的热情类似于 20 世纪 90 年代末的科技泡沫。他做空这两家最耀眼的AI企业,其逻辑是所有超大规模的云厂商,都在通过延长 IT 资产使用年限来人为地提高利润:在 2020 年,服务器和 GPU 等 IT 资产的会计使用年限通常是 3–5 年;而如今,这一数字已被延长至 5–6 年。英伟达和帕兰提尔,正是这些云厂商的上游和下游厂商。
伯里在其X账号上称,超大规模数据中心(主要的云和人工智能基础设施提供商)低估了折旧费用,它们“通过人为延长资产使用寿命来低估折旧,可以人为地提高收益——这是现代最常见的欺诈手段之一,”伯里写道。“以2-3年的产品周期购买英伟达芯片/服务器,大幅增加了资本支出,本不应该导致计算设备的使用寿命延长,然而,这正是所有超大规模数据中心运营商的做法。”
伯里估计,从2026年到2028年,这种会计手段将低估约1760亿美元的折旧,从而虚增整个行业的报告收益。他特别点名批评了甲骨文公司和Meta,到 2028 年,它们的利润可能分别被高估了约 27% 和 21%。
从上表可以看出,各大云厂商对其 网络与计算类资产(包括服务器、GPU、网络交换机、存储设备等)设定的折旧周期,2020年以来已经显著延长,其中谷歌和微软延长了一倍。
折旧年限直接影响利润,折旧年限越短,每年分摊的折旧费用越高 ,当期利润更低;反之,折旧年限越长,每年分摊的折旧费用越少 ,当期利润更高。
伯里认为,这是企业人为拉高利润的会计手段。难怪这些年硅谷的巨头们业绩这么好。原来是整个硅谷正在系统性地延长 GPU/服务器的账面寿命;表面上是因为设备更可靠、寿命更长;实际上也具有显著的 财务“利润平滑”与资本效率优化作用。
这表面上是一个会计准则问题。根据公认会计原则(GAAP),当公司预先支付大额资产(例如半导体、服务器等)的费用时,可以将其成本分摊为年度费用,具体金额取决于公司对该资产折旧速度的预估。如果公司预估该资产的使用寿命较长,则可以降低每年计提的折旧费用,从而减少对公司利润的影响。
实际上更为根本的,是科技企业在IT设备投资的技术和经济逻辑。如果要深入剖析云端 GPU 资源池的真实经济逻辑,必须关注一个近期被广泛讨论的话题:折旧(depreciation)。半导体研究咨询机构Semianalysis,梳理了ChatGPT推出前后,科技企业的IT设备实际使用的情况。
究竟 2020–2025 年间 IT 设备发生了什么变化?答案是:可靠性提升与商业激励的变化。服务器 OEM(戴尔、超微、HPE、联想、思科等)长期以来提供 3–5 年标准保修期;5 年保修价格更高,但也可购买 6 或 7 年的延保;成本上升的关键在于厂商是否能长期储备备件,支持老旧节点的维修。网络设备商(如 Cisco、Arista、Aruba Juniper)甚至尝试过 终身保修(lifetime warranty);存储厂商也提供类似模式——只需支付年度支持费,他们就持续更换老化的硬盘。可以类比汽车市场:高端客户每两年换一辆奔驰;而另一群人开着 20 年的旧车,只需加油与买保险。
从全球最大 HPC 系统可以看出趋势:这些领先的超级计算机使用的是市场上最先进、最热门、有时也是最节能的芯片。它们往往围绕系统设计数据中心,而非相反。这些系统往往可连续运行 6–8 年。
当然,如今的 V100 在 每兆瓦收入效率(Revenue-per-MW) 上已远不如新卡;部分云厂商甚至拆除旧 V100、A100、乃至早期 H100 集群,为新一代 GPU 腾出功率与空间。但这并不是因为旧 GPU 老化报废,而是因为新 GPU 收益率更高、功耗相同——属于经济性淘汰,不是物理寿命终结。
优化 GPU 云经济性的关键在于最大化 GPU 的经济寿命。根据 AI Cloud TCO(总拥有成本)模型,H100 集群的运行成本(不含资本支出)约为 $0.30–$0.40 / GPU / 小时;问题在于,5 年后,GPU 的收入能力是否仍高于这个运营成本?随着英伟达推出更高效 GPU(每美元或每瓦吞吐量提升),老 GPU 的“定价权”会快速衰减。TCO 模型提供了长期 GPU 租赁价格预测(涵盖英伟达、AMD、TPUv7/8、Trainium2/3 等),并通过历史数据验证其准确性。
对于 Azure 等云厂商而言,目标是保持 比市场平均更高的定价能力(pricing power)。可能的实现路径包括:
通过企业客户关系与垂直整合(PaaS、模型、应用)提高附加值,让 6 年老 GPU 仍可获利;
打包高利润服务(如数据库、分析等)与加速计算捆绑销售,即使 GPU 本身利润下降,也能通过联动产品维持收益。
这样,“可替换算力池(fungible fleet)”策略就有意义了:通过灵活调度与产品打包,使老 GPU 依然能产生正的投资回报率(ROIC)。
未来有两种可能:如果 Vera Rubin 等新架构性能大幅跃升,伯里的担忧可能成真——超级云厂商可能在 GPU 服役 2–3 年后就提前淘汰;但若 GPU 的长期收益与能效保持稳定,则老卡的价格底部(如 H100) 仍会稳住。从黄仁勋来看,它肯定是希望云厂商对GPU“买的越多,省的越多”,通过不断提升GPU的计算效率来缩短云厂商的采购周期。
这些问题仍待验证,但TCO 模型给出了当下最接近现实的估计。系统级创新(如英伟达 GB200 BVL72)在特定应用中能带来数量级级别的能效与性能提升,这也解释了为何硬件生命周期延长,反而可能是 GPU 云经济性的关键基础。
所以,云厂商之所以能延长IT设备折旧期,正是反映了技术进步、产品迭代、设备维护、企业管理方面优化,从而延长了硬件生命周期的实际情;在GPU供给短缺时,也满足了需求; 云厂商也要考虑及时腾出宝贵的电力和空间,用来运行产出token更高效的新一代芯片。
最近谷歌人工智能和基础设施副总裁兼总经理 Amin Vahdat ,也通过事实证明了这个道理。对TPU 的需求量过大,以至于谷歌云不得不拒绝一些客户。谷歌目前有七代 TPU 硬件正在生产中,并且其“七八年前的 TPU 的利用率达到了 100%”。
不过伯里却发出警告:将在本月25日,也就是ChatGPT发布3周年前,公布更多细节。
|