引言:一个连环追问的起点
这是一个环环相扣的问题链条:从存储为什么涨价,到AI泡沫何时破裂,再到这轮AI最终会飞到哪里。一位观察者给出了明确的论断:2026年,最迟2027年,就见分晓。
本文试图拆解这一逻辑链条,并用历史上的技术周期(互联网泡沫、移动互联网)作为参照,验证这一判断的合理性。同时,我们也会深入探讨AI浪潮中的几个关键角色——云服务商、芯片公司、模型层和应用层——各自的处境与命运。
一、逻辑链条:从存储涨价到AI终点
整个推理路径可以这样串联:
存储涨价(HBM缺货) ↓ AI服务器成本上升(GPU+HBM占整机60-70%) ↓ 云服务首次涨价(Google/AWS已悄悄行动) ↓ AI应用成本转嫁给客户(API涨价或订阅涨价) ↓ 客户ROI算不过来账 → 需求放缓 ↓ 泡沫破裂?还是良性调整?核心洞察:云服务涨价是一个“大信号”——它意味着AI算力从“便宜的 commodity”变成了“昂贵的 scarcity”。当成本持续转嫁给下游,最终客户会开始算一笔账:我用AI到底省了多少钱、赚了多少钱?
二、为什么是2026-2027年?
这个时间点非常精准,背后有清晰的产业节奏支撑:
| 时间 | 会发生什么 | 为什么关键 |
|---|---|---|
| 2025年底 | HBM产能释放(三星、海力士新厂投产) | 存储涨价的供给端原因消失 |
| 2026年 | 云厂商涨价效果显现,客户开始续约决策 | 需求端是否“扛得住”第一波验证 |
| 2027年 | 上一轮AI投资(2023-2025年)的ROI计算完成 | 资本是否继续砸钱的决定时刻 |
隐含假设:2023-2025年是AI的“投资期”(只问投入,不问回报),2026-2027年必然进入“回报验证期”。这是所有技术周期的铁律。
三、历史参照:两个技术周期的启示
3.1 互联网泡沫周期(1995-2001)
投资期(1995-2000年):
- 纳斯达克从约1000点涨至5000点(涨5倍)
- 风险投资总额从约80亿美元飙升至约1000亿美元
- 典型估值逻辑:不看收入,只看“眼球”/点击量
- 流行语:“我们每年亏损1亿美元,但我们是一家互联网公司”——投资人真信
破裂期(2000年3月-2001年):
- 纳斯达克从5048点跌至约1200点,跌幅76%
- 亚马逊股价跌94%(从$106到$6)
- 2001年约500家互联网公司倒闭
- 活下来的:亚马逊、谷歌、eBay、Priceline
破裂原因:ROI算不过来账、烧钱速度失控、美联储加息收紧流动性。
3.2 移动互联网周期(2007-2013)
投资期(2007-2010年):
- iPhone销量从140万部(2007年)增长到4000万部(2010年)
- App Store应用数从500个(2008年)增长到25万个(2010年)
洗牌期(2011-2013年):
- Facebook IPO破发,股价跌50%
- 大量低质量应用公司倒闭
- 活下来的:Uber、Instagram、Snapchat、字节跳动
与互联网泡沫的关键区别:移动互联网有真实的设备销量和用户增长曲线,不是纯概念。因此是“洗牌”而非“破裂”。
3.3 两个周期的对比总结
| 维度 | 互联网泡沫(1995-2001) | 移动互联网(2007-2013) | AI周期(2022-2027?) |
|---|---|---|---|
| 投资时长 | 5年 | 3-4年 | 约3年(2022年底起) |
| 泡沫破裂 | ✅ 严重破裂(-76%) | ❌ 洗牌,非破裂 | ? |
| 破裂/洗牌时间点 | 2000-2001年 | 2012-2013年 | 2026-2027年 |
结论:你的“2026-2027见分晓”完全符合历史规律。互联网是5年投资→1年破裂,移动互联网是3-4年投资→2年洗牌,AI是3年投资→1-2年洗牌。
四、AI周期可能的三种结局
| 结局 | 概率 | 条件 |
|---|---|---|
| 类似移动互联网的洗牌 | 60% | AI有真实用户、真实收入、ROI逐步好转;2026-2027年不是崩盘,而是行业整合 |
| 类似互联网泡沫的破裂 | 30% | 云服务持续涨价、客户ROI为负、资本撤退;2026-2027年纳斯达克跌50%+ |
| 持续增长,没有洗牌 | 10% | AI成为第四次工业革命,需求持续超过供给(概率低,历史无先例) |
“见分晓”的具体含义:不是末日,是清算。谁会裸泳?那些依赖“免费算力+不计成本”的应用会死。谁会赚钱?云厂商(涨价)、芯片厂(稀缺)、高效应用(ROI为正)。
五、ROI怎么算?——三种客户的账本
5.1 云厂商(采购GPU建数据中心)
算账公式:ROI = (GPU出租收入 - 电费 - 运维 - 折旧) / GPU采购成本
以H100为例的拆解:
- 采购成本:约$30,000/卡
- 使用寿命:3年(之后性能落后)
- 出租收入:$2-4/小时(按需实例)
- 利用率:50-70%
单卡3年总收入(按$3/小时、60%利用率):约$47,304
减去成本:$47,304 - 运维成本(约$15,000) - 采购成本($30,000)≈$2,304利润
结论:H100的ROI极薄。利用率低于50%、电价上涨、或下一代芯片推出太快导致上一代加速贬值,都可能亏本。
危险信号:GPU闲置率上升、下一代芯片推出太快、云厂商打价格战。
5.2 AI应用公司(调用API做产品)
以AI代码助手为例:
- 每月用户付费:$20/人
- 每用户每月API成本:$5-10
- 毛利率:50-75%
- 获客成本(CAC):$100-200
- 用户生命周期(LTV):12-24个月
危险信号:
- API成本波动:如果OpenAI涨价20%,毛利率从60%骤降到40%
- 用户算账更精明:如果省的时间价值 < $20/月,用户会流失
- 模型同质化:竞品用更便宜的API,定价压力巨大
5.3 企业客户(内部部署AI提升效率)
以AI客服替代人工为例:
- 人工客服年薪:$40,000/人
- 替代比例:30%(仍需人工处理复杂问题)
- 每年节省:$12,000/人 × 100人 = $1.2M
- AI软件年费:$200,000
- 实施+集成成本:$100,000(一次性)
- ROI:第一年约3倍
危险信号:
- 替代比例被高估(实际可能只有10%)
- 隐性成本巨大:数据清洗、模型微调、持续运维、AI输出错误风险
- ROI计算周期过长:如果企业要求6个月回本,AI项目可能被砍
六、危险的“三体问题”:巨额投入但没有盈利
判断标准不是“是否盈利”,而是“盈利路径是否清晰”。
| 公司 | 投入巨大 | 是否盈利 | 危险程度 | 原因 |
|---|---|---|---|---|
| OpenAI | 是(百亿级) | 否 | ⚠️ 中等 | 收入增长快(年化~$3.4B),路径清晰 |
| Anthropic | 是(数十亿) | 否 | ⚠️ 中等 | 收入增长快,To B稳健 |
| Inflection | 是(数十亿) | 否 | 🔴 高 | 产品没找到PMF,被“收购式解散” |
| Stability AI | 是(数亿) | 否 | 🔴 很高 | 开源模型被Llama碾压,商业化失败 |
关键问题:收入增速是否跑赢成本增速?是否有清晰的盈利时间表?是否有战略价值支撑持续烧钱?
七、Token:AI世界的“通用能源”
7.1 为什么是Token?
一个奇妙的标准化过程正在发生。无论底层用的是:
- 什么硬件:NVIDIA B200、AMD MI350、华为昇腾、寒武纪690
- 什么软件:CUDA、Triton、Python、JAX
- 什么模型:Qwen、Gemini、DeepSeek、Sora
输入的是Token,输出的是Token。用户可以按Token付费。
Token屏蔽了底层所有的硬件、软件、模型架构差异,在“语义空间”里建立了一个统一的度量衡。就像用千瓦时(kWh)计量电能,不管这电是火电、水电还是核电发出来的。
7.2 Token标准化的三层含义
对用户:按Token付费,极其公平和灵活。用多少付多少,不用为闲置资源买单。
对应用开发者:Token既是成本(调用API),也是收入(向客户收费)。“Token效率”——每解决一个任务消耗多少Token——会成为应用层的核心竞争力。
对模型/云厂商:Token是他们的“产品”和“货币”。核心竞争力变成“每Token成本”和“每Token质量”。
7.3 “Token和Token还是不同的”
当前现状:价格表差异巨大。GPT-4的Token比LLaMA 3的Token贵得多,因为大家认为GPT-4的Token“质量更高”。
长期趋势:随着模型能力普遍增强,差距会缩小。竞争会从“绝对质量”转向“每美元Token的性价比”和“特定领域的性能”。
八、NeoCloud现象:为什么Oracle和CoreWeave能重新上桌?
8.1 传统云服务的“超卖”模式
什么是超卖?把同一份物理资源卖给多个不同的用户,赌的是他们不会同时用满。
类比航空公司卖票:一架200座的飞机敢卖210张票,因为总有约5%的乘客会误机。赌赢了多赚钱,赌输了赔钱改签。
云端CPU的超卖,逻辑一模一样。通过虚拟化技术,1个物理核心可以伪装成10个“虚拟核心”卖给10个客户。只要他们不是同时跑到100%,大家就觉得“挺快的”。
超卖的技术门槛极高:
- 精准预测:一个物理核心能安全地超卖多少倍
- 实时调度:当多人突然需要算力时,能瞬间调度
- 隔离技术:让客户A完全感觉不到客户B的存在
AWS、Azure、Google Cloud花了十几年、几百亿美元,才把这套技术打磨到极致。小云厂商根本玩不起。
8.2 AI训练为什么难以超卖?
CPU场景:Web服务器95%的时间在“等请求”,有空闲可被超卖。
GPU训练场景:一块H100被用来训练大模型,在接下来的几个小时甚至几天里,100%占满,一刻不停地进行矩阵乘法。没有空闲时间,就没有超卖的空间。
结论:卖AI算力,回到了“卖硬件”的旧模式——买到卡、插上电、连上网、租给客户。核心竞争力不再是“超卖技术”,而是“你能不能搞到卡”。
8.3 为什么Oracle能杀出来?
- 有资本,敢下注:拉里·埃里森选择把回购分红的钱省下来,疯狂扫货NVIDIA GPU
- 有存量客户:全球大公司都在用Oracle数据库,数据就在Oracle的“墙内”,把AI算力部署在数据旁边是一个极有说服力的故事
- 有网络和硬件积累:搭建万卡集群需要极致的低延迟网络和并行文件系统
核心差异:AWS的成功靠按秒计费、无数小功能、丰富生态;Oracle的成功靠“我有你们现在最缺的东西——GPU”。
8.4 CoreWeave:更极致的“新物种”
- 出身:加密货币挖矿公司。挖矿和AI训练对算力的需求非常相似
- 技术:非常懂怎么把成千上万张GPU用高速网络连接起来
- 金融化运作:拿着NVIDIA订单合同找华尔街融资,告诉投资人“我已经把未来几年的H100都卖出去了”
核心差异:CoreWeave不卖虚拟机,只卖“算力容器”或“裸金属GPU”,放弃灵活性,换来极致的AI性能。
8.5 NeoCloud未来会怎样?
风险1:GPU不再稀缺。当H100不再是紧俏货,竞争会回到价格和软件生态上,那时AWS/Azure的“规模效应+全套软件”优势会重新显现。
风险2:客户做大后自建。创业公司一旦融到钱、模型成熟,很可能会自己去租数据中心、买卡。
风险3:资本成本。买GPU是极度烧钱的游戏。一旦AI投资热度下降或利率维持高位,高杠杆模式会很危险。
一句话总结:Oracle和CoreWeave的成功,不是在AWS的规则下赢了它,而是用AI时代的规则重新开了一局游戏。
九、高通:规模优势与苹果分手的阴影
9.1 真正的底牌:规模
高通在CPU和NPU上的技术优势被形容为“牵强”——不是因为不强,而是在绝对峰值上未必领先竞争对手。但高通有一个无人能及的护城河:规模。
- 客户规模:三星、小米、OPPO、vivo、荣耀、索尼、谷歌Pixel……全球除苹果外的几乎所有安卓手机厂商
- 产品规模:手机SoC、射频前端、Wi-Fi/蓝牙模组、车规级芯片、物联网芯片
- 供应链规模:与台积电、三星晶圆厂的长期大单,保证产能和成本优势
- 生态规模:全球数百万开发者基于高通芯片开发应用——这不是技术壁垒,是时间壁垒
“We can do things at scale”的真正含义:只有高通能同时满足三星、小米、OPPO、vivo几大客户对旗舰芯片的年度需求,并提供全球技术支持。
9.2 高通的AI叙事
高通不讲“最强的AI芯片”,讲“最普及的AI芯片”。当AI从云端走向终端(on-device AI)时,高通的芯片已经在那里了。
- AI手机:骁龙8 Gen 3的NPU算力已经可以跑Stable Diffusion、Llama 2
- AI PC:骁龙X Elite系列面向Windows on ARM
- 智能汽车:Snapdragon Ride做自动驾驶/座舱芯片
一针见血:NVIDIA赢在深度(单点性能极致),高通想赢在广度(覆盖所有终端)。
9.3 苹果分手的阴影
阴影是什么?不仅仅是失去苹果基带芯片订单(每年约60-80亿美元),而是可能导致整个专利授权体系被撬动(苹果每年还交约20-30亿美元专利费)。
为什么前途不明朗?失去每年约100亿美元的收入(占高通总营收20-27%),高通暂时找不到同等体量的替代者。汽车业务2023年约15亿美元,AI PC刚起步,物联网碎片化毛利低——短期补不上缺口。
但也不用太悲观:
- 苹果自研基带可能延期或失败(5G基带的全球运营商认证极难)
- 专利授权协议签到了2027年,短期稳定
- 安卓高端市场仍是“压舱石”(每年约150-200亿美元)
时间窗口:
- 现在-2026年:相对稳定
- 2026-2027年:开始切换,收入下滑
- 2028年以后:要么找到新增长曲线,要么沦为“安卓芯片公司”
十、OpenRouter与“Token商店”生意
10.1 OpenRouter的商业模式
OpenRouter的本质不是拥有算力,而是聚合和分发各大模型厂商的API。它是一个“AI机票代理”,不拥有飞机,只是把不同航空公司的机票放在一起卖。
- 成本:向上游支付Token费用
- 收入:向下游收取Token费用
- 毛利:中间的差价,极窄
10.2 为什么利润微薄?
- 上游定价权极强:OpenAI、Anthropic给大客户的API价格几乎是透明的
- 下游价格敏感:开发者会对比“官方直营店”和“OpenRouter超市”的价格
- 竞争激烈:几乎没有门槛
10.3 为什么还有人用?
不是因为它便宜,而是因为它提供了整合价值:
- 统一接口:不用对接各家不断变化的API
- 自动路由与降级:可设置“优先用GPT-4,挂了自动切到Claude”
- 单一计费与密钥管理:不用管理一堆云厂商账户
- 模型发现与实验:方便尝试新出的、小众的模型
一句话:OpenRouter卖的不是“更便宜的Token”,而是“集成的便利性和业务的鲁棒性”。
10.4 “闲置算力卖Token”为什么难?
一个自然的问题是:如果把闲置的智算中心上电,搞一个类似的Token商店,能行吗?这里有三大天堑:
坑一:你卖的不是标准化商品。OpenRouter聚合的是API,背后是已经优化好的服务。让一个模型在你闲置的卡上跑起来并对外提供稳定、低延迟的API服务,中间有巨大的工程鸿沟。
坑二:解决不了“冷启动”问题。没有大厂品牌背书,没有爆款模型,没有开发者生态。最关键的是,算力是“闲置资源”,随时可能被收回——没有开发者愿意把自己的应用建在“可能随时消失的算力池”上。
坑三:面临的不只是价格战。竞争对手不是OpenRouter,而是云大厂的“Spot实例”或Together.ai这类专门做“长尾模型托管”的平台。
结语:2026-2027,算总账的时刻
回到最初的论断:2026年,最迟2027年,就见分晓。
这个时间点的精准之处在于,它对应着三个关键转折:
- HBM产能释放,存储涨价的供给端原因消失
- 云厂商涨价效果显现,客户开始续约决策
- 上一轮AI投资的ROI计算完成
“见分晓”的具体内容是:哪些公司有真实盈利能力(类似2000年后的亚马逊、谷歌),哪些只是烧钱的画饼公司(类似2000年后的Pets.com)。
AI不会消失。就像互联网没消失一样,只会变得更务实。2026-2027年不是末日,是清算。
本文内容整理自相关技术讨论与问答记录,仅作为个人学习笔记存档。