Wind做了一个美股AI产业链的图谱,中国有对标的企业吗?
其实好消息是,中国和这些巨头对标的企业还不少,有的已经部分领先。
先把原图拆解一下(By Kimi):
一、最上层:To C 端 AI 模型(应用层)
这一层是普通人最能直接感知的“聊天、写作、画图”类大模型,目前赛道最卷、流量最高。
一句话总结:模型层“四国杀”——Meta 走开源、Google 走多模态、OpenAI 走付费、Grok 走流量。
二、第二层:主要“云算力租用”公司(IaaS 层)
大模型训练、推理都要堆 GPU,但 99% 公司不会自己买机器,而是直接租云。这一层就是“卖水人”里的“水厂”。
一句话总结:训练/推理算力被“美系四云”垄断,Oracle 和特斯拉是细分/自用搅局者。
三、第三层:AI 芯片设计(Fabless)
再往下就是“卖铲子”的核心——芯片。这里分两条线:通用 GPU 和定制芯片。
一句话总结:训练端 NVIDIA 一家独大,推理端 AMD+定制 ASIC 抢份额,ARM 是“幕后卖 IP 的房东”。
四、最底层:半导体制造与设备(Fab & Equipment)
芯片再强,也要有人代工、有人做设备,这一层是“铲子中的铲子”。
一句话总结:先进制程=“台积电+ASML+德美零部件”三人转,缺一环全球 AI 都得踩刹车。
好了,AI解读到此结束。
下面是星空君的人工分析:
一、应用层
中国的大模型几乎都免费,其中DeepSeek、阿里、Kimi、智谱、百度等都开源,豆包、混元闭源。
这些大模型性能强悍,在开源大模型中,中国的一众大模型吊打全球。
和OpenAI的略有差距,但并没有数量级的差异。
大模型领域,大厂巨头包括阿里、字节、腾讯、百度都没有缺席。我特别看好阿里和字节。
因为性价比超高,美国80%的硅谷创业公司都在使用中国开源大模型。
星空君有一个暴论,AI大模型卷到最后,能力都会趋同,不会有太大差距。现在国内国外大模型都在朝着那个最终的终点前进,而且不会太遥远了。
二、IaaS层
国内的最大巨头自然是阿里,但腾讯云、华为云都没闲着。
字节搞了个火山引擎,做配套。
三、AI芯片设计
华为当然是头把交椅,昇腾现在是全球范围内唯一可以和英伟达掰手腕的AI芯片。
不过,中国的AI芯片设计企业是百花齐放状态。
摩尔线程、寒武纪、海光、龙芯等等都在大规模的上AI芯片。
需要重点提两个神奇的巨头:阿里和百度。
尽管百度风评不好,但它搞的昆仑芯片能力非常强悍。阿里的AI芯片含光也开始大规模上线应用。
和x86、ARM时代不同的是,AI芯片不一定需要那么强的通用性,英伟达模式不是唯一选择,在资本和技术的加持下,很多大模型企业可以自行根据需要设计AI芯片。
中国各大厂的AI芯片大多采用RISC-V架构,开源可控,不会被卡脖子。
四、半导体制造
和手机芯片不同的是,机房的空间比手机空间宽裕多了,所以AI芯片对制程的要求没有那么极端,7nm就能很好的实现强大的性能了。
中芯国际、华虹半导体等代工企业都能生产AI芯片。
尽管多次曝光相对成本较高,但AI芯片的利润也足够高,足够覆盖。
五、电力
Wind这个图,忽视了最重要的一点:电力。
当大模型的技术都接近巅峰的时候,其实巨头们就没有很大的差异化了,那么比拼的不是技术,是什么?
电力。
哪个国家电力最牛掰呢?好难猜哟!
星空君的观点是,阿里不再是一家电商企业,而是一家可以对标谷歌的AI企业(我个人看不上OpenAI,未来会倒闭或者被收购,坐等打脸);字节也不再是一家短视频自媒体平台企业,而是一家可以对标马斯克的X+Meta的AI企业。
星空君思考了一个问题,当大模型达到能力上限的时候,这些大模型企业会如何转型?
我认为会成为云计算的附加服务,免费或者作为云资源不同套餐赠送。
回过头来看美股AI企业,2024年,OpenAI的销售额只有43亿美元,也就是说,几千亿上万亿的美股市值企业,最终主要产生的AI直接销售额就43亿美元(2025年预计130亿美元)。
2025年前三季度,AI投资额占美国经济增长的40%;AI股票涨幅贡献了美国股市涨幅的80%。