一个七万亿美元的芯片机会
人工智能 (AI) 正通过前所未有的硬件驱动型投资超级周期重塑全球技术格局。到 2030 年,用于 AI 优化数据中心的资本支出 (CapEx) 预计将超过 7 万亿美元,这一规模是以往任何计算转型都无法比拟的。这一激增反映了两大结构性转变的融合:生成式 AI 模型的产业化以及能够训练和服务万亿参数系统的超大规模计算园区的物理建设。仅超大规模数据中心运营商就占了其中的 3200 多亿美元,亚马逊投入约 1000 亿美元,微软 800 亿美元,谷歌 750 亿美元,Meta 650 亿美元 。剩余部分则来自主权国家倡议和专业基础设施提供商,其中包括由 AI 公司和主权财富投资者组成的财团支持的 5000 亿美元的 Stargate 计划(图 1)。
这一波浪潮标志着与传统云计算周期结构性的突破。2010年代,云计算的建设主要围绕计算弹性和虚拟化展开。相比之下,2020年代的人工智能建设则从根本上关注吞吐量密度,以每瓦浮点运算次数(FLOPs per Watt)和每机架浮点运算次数(FLOPs per Rack)来衡量,从而推动了对半导体的巨大需求。数据中心半导体市场在2025年第二季度同比增长44%,并有望在2026年再增长33%。
这对半导体设计和供应链的影响是深远的。GPU、AI加速器、HBM内存、网络ASIC和先进封装技术如今主导着行业的资本配置。所有超大规模数据中心都在竞相提前数年锁定晶圆和封装产能。此次AI超级周期也标志着“计算经济”的诞生。如今,每一美元的AI资本支出都会直接转化为对半导体、电力基础设施和专用冷却系统的下游需求。耗电量达400-800兆瓦的数据中心园区不再是例外,而是新的常态。这一趋势的规模凸显了为何2026年将成为自集成电路问世以来半导体行业最具决定性的一年。
人工智能时代的半导体需求动态
人工智能革命重塑了半导体行业的增长轨迹,使其成为全球计算经济的基础层。如今,对人工智能数据中心的每一项投资都会波及整个半导体产业链,从GPU和加速器到HBM内存、网络芯片和先进封装。
以这个市场的大赢家英伟达为例。据介绍,其第三财季营收为570.1亿美元,超出市场预期的549.2亿美元; 数据中心Q3营收为512亿美元,轻松超过分析师预测的490.9亿美元,同比增长66%。这巩固了NVIDIA在人工智能计算基础设施领域的领先地位。其中,微软、亚马逊、Alphabet和Meta这四家公司合计占英伟达销售额的40%以上,预计未来12个月这些公司的AI支出总额将增长34%至4400亿美元。这凸显了人工智能需求在超大规模数据中心运营商中的集中度。
尽管英伟达专有的 CUDA 生态系统和 NVLink 互连技术仍然保持着强大的市场占有率,但 AMD 的 Instinct MI450 平台凭借与 OpenAI 达成的 6 GW GPU 供应协议,正在迅速获得市场认可,首批部署计划于 2026 年底进行。英特尔通过其 Gaudi 产品线和 Foveros、EMIB 等先进封装技术重新确立了其重要地位,并将自身定位为人工智能供应链中的关键合作伙伴。
与此同时,全球高带宽内存 (HBM) 市场预计将大幅扩张,总潜在市场规模预计将从 2024 年的约 160 亿美元增长四倍,到 2030 年超过 1000 亿美元。这一增长趋势意味着,到本十年末,HBM 市场规模可能超过 2024 年整个 DRAM 行业的规模,凸显了其在 AI 计算供应链中的核心地位。目前,每个 GPU 模块集成了高达 192 GB 的 HBM3e,导致持续的供应短缺和更长的交货周期。与此同时,网络芯片也经历了爆炸式增长。NVIDIA 的 Spectrum-X 和 NVLink 架构实现了显著增长。博通和 Marvell 等主要供应商同样至关重要,它们实现了 400-800 Gb/s 的互连,从而支持大规模 AI 训练集群。
封装是这条链条中另一个至关重要却又压力巨大的环节。先进的封装技术,例如台积电的CoWoS、英特尔的Foveros以及EMIB技术,对于将计算、内存和I/O集成到统一的多芯片系统中至关重要。然而,产能仍然有限,CoWoS生产线已排满至2027年中期,而像Ibiden和Amkor这样的基板供应商也难以满足需求。随着NVIDIA在2025年的持续增长,人工智能半导体已成为全球科技经济的核心引擎,推动着投资、创新和产业转型,其规模之大,堪比互联网的兴起。
Neo-Cloud的颠覆
Neo-Cloud的兴起标志着人工智能基础设施格局在架构和经济层面上的重大转变(图 2)。与围绕虚拟化计算和弹性存储构建的传统超大规模云服务商(如 AWS、Azure 和 Google Cloud)不同,CoreWeave、Crusoe、Lambda 和 Nebius 等Neo-Cloud从一开始就针对 GPU 高密度、低延迟网络和人工智能专用工作负载而设计 。它们的基础设施优先考虑吞吐量而非弹性,使用 NVIDIA HGX、NVLink 和定制的 AMD Instinct 系统来实现每瓦性能最大化。
CoreWeave 就是专业人工智能基础设施转型的一个典型例子,它从以太坊挖矿起家,发展成为世界领先的 GPU 云服务提供商之一。截至2025年中期,该公司在33个数据中心运营着约25万块NVIDIA GPU,包括H100、H200和GB200 NVL72系统,拥有约470兆瓦的活跃IT电力和2.2吉瓦的合同容量。该公司在2024年底完成二次股票出售后估值达到230亿美元,并在2025年10月达到700亿美元的市值。
CoreWeave通过提供直接的裸机GPU访问而非虚拟化云实例,使Hopper级GPU的利用率保持在50%以上(模型浮点运算利用率),比公开基准高出约20%。这种方法缩短了配置周期,提高了性能一致性,并使AI开发人员能够在GPU全球稀缺的情况下快速扩展工作负载。 NVIDIA 持有 CoreWeave 约 6% 的股权,这凸显了双方在下一代架构(例如分别于 2025 年初和年中部署的 GB200 和 GB300 NVL72 系统)方面的深度合作和一致性。
Neo-Cloud的出现重塑了半导体经济格局和供应链关系。英伟达已与这些公司建立了战略合作伙伴关系,通过长期采购承诺,使它们能够提前获得下一代GPU,从而确保在与超大规模数据中心谈判之外,拥有稳定的高利润渠道。
AMD继2025年与OpenAI合作之后,正向Neo-Cloud运营商供应MI450加速器,并预计其2026年AI GPU出货量的15%将流向专业供应商。
对于英特尔而言,在台积电晶圆代工产能受限的情况下,与Neo-Cloud的合作使其得以展示Foveros和EMIB封装技术。这种资金灵活性,加上持续的利用率,使Neo-Cloud成为私人投资者和半导体供应商的理想合作伙伴。瑞银的预测与前文提及的麦肯锡预测一致,进一步印证了人工智能基础设施资本支出持续增长的趋势。
据瑞银预测,受主权国家和企业投资者(包括新兴的Neo-Cloud和国家人工智能基础设施项目)的推动,全球人工智能资本支出预计将在2025年增长60%至3600亿美元,并在2026年进一步增长33%至4800亿美元。在这个不断扩张的市场中,预计到2026年,Neo-Cloud运营商将占据全球人工智能计算投资的10%至15%的份额,从而形成多元化且加速的需求周期,并在2027年之前重塑GPU、HBM和先进封装技术的采购模式。
电力危机与冷却创新
人工智能基础设施的蓬勃发展正将电力和冷却限制推向风口浪尖。例如,OpenAI 的 Stargate 项目计划将容量扩展到吉瓦级电力需求,其中包括在德克萨斯州阿比林附近扩建 600 兆瓦,这凸显了集群密度正开始超越电网和冷却能力。NVIDIA 的 GB200 NVL72 部署中,每个机架在满负荷运行时预计消耗约 120 千瓦的电力。
根据高密度部署的推算,预计到 2026 年,全球数据中心的电力需求将超过 1000 太瓦时,高于 2022 年的约 460 太瓦时。为了满足这一需求,超大规模数据中心正通过长期购电协议确保核能和可再生能源的供应,例如:微软和OpenAI与Constellation Energy在美国购买了1吉瓦的核电;亚马逊与弗吉尼亚州和俄亥俄州的区域性公用事业公司达成协议;谷歌与欧洲和内华达州的地热和太阳能供应商合作。根据Brookfield的AI基础设施预测,预计2025年至2034年间,全球将在电力和输电基础设施方面投资5000亿美元,这凸显了AI扩张背后巨大的能源投入规模。
散热管理变得同样至关重要。随着机架功率超过 100 kW,风冷接近物理极限,加速了液冷系统的普及。到 2026 年底,超过 40% 的新型 GPU 集群将采用芯片级直接冷却或浸没式冷却,而 2024 年这一比例为 20%。监管机构,尤其是在欧盟,现在要求公开能源和冷却信息,从而推动了热回收系统和可再生能源的普及。尽管人工智能数据中心的耗电量可能超过某些国家,但它们与碳中和能源和先进冷却技术的融合最终可能会加速向更清洁基础设施的转型。“电力危机”因此演变为创新的催化剂,它界定了人工智能可扩展性的极限,同时也促成了半导体、能源供应商和环境政策之间新的产业联盟(图 3)。
定制芯片浪潮
2026 年的一个显著特征是超大规模数据中心加速采用定制芯片设计,这标志着半导体行业的重大转变。随着人工智能工作负载主导数据中心增长,亚马逊、谷歌、微软和 Meta 等云服务领导者已将芯片设计转变为一项战略核心竞争力(图 4)。亚马逊基于台积电 N5 工艺制造的 Trainium2 和 Inferentia2,在特定应用场景下,其性价比比英伟达 H200 系统高出 30%。谷歌针对能效进行了优化的 TPUv7,其每瓦性能显著高于上一代产品,而微软的 Maia AI 平台则展现了该公司在定制芯片战略方面取得的显著进展。Meta 的 MTIA v2 芯片专注于低延迟推理。这种向专有芯片的转变使超大规模数据中心能够更好地控制成本、提高能效并增强供应链的韧性。
定制芯片浪潮加深了超大规模数据中心和代工厂之间的战略联系。台积电仍然是N4、N3系列节点芯片的主要制造商,而三星则为部分边缘部署提供支持。英特尔通过高价值合作重获新生,其中最引人注目的是2025年9月宣布的与英伟达达成的50亿美元投资和联合开发协议。
这些联盟标志着半导体层级结构的转变:超大规模数据中心不再是被动的客户,而是积极的架构师,共同开发支撑人工智能基础设施的芯片。对于台积电、英特尔和三星而言,这种演变维持了芯片的利用率,并创造了新的联合设计收入渠道;而对于英伟达和AMD而言,这凸显了一种新的竞争格局,即他们的芯片与超大规模数据中心构建的处理器并存,而非占据主导地位。专有芯片时代已经开启,重新定义了价值数万亿美元的计算经济中的力量平衡。
关键瓶颈和供应链制约
半导体行业目前面临着严峻的供应链制约,其对人工智能基础设施扩张速度的限制甚至超过了金融资本。HBM、先进封装和基板短缺已成为人工智能硬件经济的核心瓶颈。
HBM的生产仍然高度集中:截至2025年中期,SK海力士一家就占据了约62%的市场份额,美光和三星则占据了剩余的大部分份额。尽管这三家公司都在扩大HBM3E的产量,但需求仍然超过供应,尤其是在下一代GPU可能需要每个器件64GB或更多堆叠式内存配置的情况下。美光2000亿美元的投资计划包括在爱达荷州新建晶圆厂,以及扩大封装和内存制造能力。
先进封装正成为一个关键的结构性瓶颈,尤其是台积电的CoWoS技术。据行业报告显示,台积电的CoWoS产能预计将从2024年的每月约4万片晶圆增长到2026年的每月14万至15万片晶圆。台积电对CoWoS需求的激增已经挤压了衬底供应,导致延迟和交货周期延长。
战略合作与供应协议
在2025年至2026年期间,OpenAI、AMD、NVIDIA、Intel以及多家大型超大规模数据中心和半导体公司之间达成了多项备受瞩目的合作与供应协议。以下将深入探讨其中几项最具影响力的合作:
2025年9月,NVIDIA和Intel宣布达成一项战略合作协议,NVIDIA将以每股约23.28美元的价格向Intel投资50亿美元股权,旨在共同开发下一代人工智能基础设施、平台架构和先进的个人计算系统。此次合作的重点是将NVIDIA的GPU芯片与Intel的x86 CPU集成,以创建覆盖数据中心和客户端市场的统一计算平台。根据联合声明,此次合作将使NVIDIA能够实现CPU来源多元化,同时通过更紧密的CPU-GPU协同设计和封装创新,帮助Intel重获在人工智能服务器生态系统中的领先地位。路透社和彭博社援引的行业分析师指出,该计划可能有助于英特尔重新进入高性能人工智能计算竞赛,并且随着联合开发的产品达到批量部署,财务收益可能会从 2026-2027 年开始显现。
2025年9月,微软与人工智能基础设施提供商Nebius达成了一项价值174亿美元的多年期协议,以确保在五年内获得专用的GPU计算能力,并有可能将协议金额扩大至194亿美元。该合同授予微软从Nebius位于新泽西州维内兰的新设施开始使用的计算能力,从2025年底开始,帮助这家超大规模数据中心运营商缓解内部容量限制,而无需进一步的资本投入。
2025年10月,AMD和OpenAI宣布了一项多年供货协议,根据该协议,AMD将逐步交付高达6吉瓦的Instinct GPU,首批1吉瓦预计将于2026年下半年交付。该协议还授予OpenAI认股权证,允许其根据交付和性能里程碑的达成情况,购买至多1.6亿股AMD股票(约占AMD股份的10%)。OpenAI与NVIDIA的关系仍然至关重要:2025年9月,两家公司宣布建立10吉瓦的战略合作伙伴关系,根据该合作伙伴关系,NVIDIA将向OpenAI提供系统,并投资高达1000亿美元用于支持部署。虽然NVIDIA仍然是OpenAI Blackwell级基础设施的主要供应商,但这项合作伙伴关系表明,AMD的协议很可能是对NVIDIA的补充而非取代,从而为OpenAI提供了多种硬件选择,并降低了供应风险。
此外,OpenAI 和博通 (Broadcom) 已达成战略合作,共同开发针对 OpenAI 工作负载优化的定制 AI 加速器,将博通在高性能网络和芯片设计方面的专业知识与 OpenAI 的系统级架构相结合。这项合作使 OpenAI 能够深化计算和互连层的垂直整合,从而补充其与 NVIDIA 和 AMD 的外部 GPU 合作关系,并推进其自身的定制推理和训练芯片路线图。
赢家、风险与战略定位
到2030年底,半导体行业将演变为一场以产能控制、效率和生态系统主导地位为中心的地缘政治和产业竞争。全球人工智能基础设施投资将超过7万亿美元,这将改变整个半导体产业链的权力格局。一些公司已经巩固了其主导地位,而另一些公司则面临结构性停滞。英伟达(NVIDIA)拥有业内最高的毛利率,超过70%,并占据了人工智能GPU市场80%以上的份额。其主导地位得益于其高度发达的软件生态系统(CUDA、TensorRT)和强大的行业关系。台积电(TSMC)的3纳米制程目前已满负荷运转(约100%),用于生产先进逻辑芯片,其不断增强的财务状况体现在先进封装收入的增长以及在前沿制程节点上持续的定价能力。
与此同时,SK海力士(SK Hynix)在HBM市场占据主导地位。英特尔的 Intel 18A 工艺节点已在其位于亚利桑那州的 Fab 52 工厂进入大规模量产阶段,这标志着美国最先进的半导体制造工艺的诞生,并使该公司有望重夺代工领域的竞争力。
在第二梯队中,AMD、博通和Marvell代表着冉冉升起的挑战者。AMD的Instinct MI450平台凭借与OpenAI的多年供货协议,成为NVIDIA的可靠替代方案。或许,这一动态中最大的赢家是OpenAI本身,它以优惠的价格获得了多年的GPU供应承诺,使其免受市场波动的影响,并确保了长期的产能获取。
博通和Marvell已成为AI基础设施的关键参与者。博通在为超大规模数据中心定制ASIC和网络芯片方面赢得了重要的设计订单,而Marvell则通过数据处理单元(DPU)、光互连和为AI集群定制的芯片,巩固了其在AI连接领域的地位。这些地位使得这两家公司在AI网络骨干网中扮演着越来越重要的角色,为超大规模AI部署提供必不可少的互连组件。
然而,系统性脆弱性依然存在:对台积电和海力士的过度依赖造成了集中风险,而监管碎片化,尤其是中美之间的出口管制,威胁着供应链的流动性和市场覆盖范围。欧洲的环境指令现在强制要求披露碳排放和废热信息,这给超大规模数据中心运营商带来了更大的合规压力。展望未来,半导体行业的优势将取决于集成控制,从芯片设计到能源和冷却系统。那些能够将架构、能效和制造韧性完美结合的公司将定义2027年后的AI经济,届时,下一个万亿美元的计算投资将同样取决于能源和材料,而不仅仅是晶体管密度。
展望未来:通往2030年的道路
随着2025年即将结束,半导体行业正引领着自互联网兴起以来最快的基建建设。人工智能的蓬勃发展,得益于高达5000亿美元的“星际之门”级数据中心项目和超过3200亿美元的超大规模数据中心资本投入,引发了涵盖电力、制造和计算供应链的约7万亿美元的扩张。数据中心芯片收入在2025年增长了44%,并在2026年保持了30%以上的增长,这主要得益于GPU、HBM和先进封装技术的创纪录需求。人工智能已经从数字抽象转变为一个由混凝土、钢铁和硅构成的工业系统。
从2027年到2030年,这一周期将从扩张转向效率和可持续性。麦肯锡预测,到2030年,人工智能相关数据中心投资将达到5.3万亿美元,主要驱动力是下一代HBM4内存、模块化芯片架构和液冷系统。持续的竞争力将取决于三大战略支柱:
(1) 能源整合,超大规模数据中心将人工智能集群与碳中和能源共置,以推动到2030年实现1.05的电源使用效率;
(2) 供应链韧性,半导体公司实现区域制造多元化,以缓解地缘政治碎片化的影响;
(3) 生态系统协调,政策制定者推动开放式代工厂准入和关键材料回收利用。然而,集中风险依然存在,过度依赖台积电的先进逻辑芯片和SK海力士的HBM内存会造成结构性脆弱性,而中美出口管制和监管碎片化只会加剧这种脆弱性。
然而,在这场产业转型背后隐藏着一个更深层次的问题:人工智能投资究竟是在推动真正的经济增长,还是仅仅掩盖了潜在的脆弱性?德意志银行2025年9月的一份分析报告指出,如果没有人工智能相关的投资,美国经济可能早已陷入衰退。GDP增长、企业盈利扩张和股市上涨都过度依赖于一小部分技术资本支出。这种集中化造成了系统性脆弱性。如果由于借贷环境恶化、企业现金流减少或投资者信心下降导致人工智能支出周期停滞,其影响可能远远超出半导体供应链,波及更广泛的宏观经济稳定。
互联网泡沫时代的余波清晰可见。上世纪90年代末,资本涌入互联网基础设施,寄望于变革性回报,但最终泡沫破裂,收入未能实现。如今的人工智能热潮在结构上与互联网泡沫有相似之处:对未经证实的应用进行大规模前期投资,未来增长前景支撑着高估值,基础设施建设速度远超已实现的商业回报。然而,这两个周期之间存在着关键差异。与互联网泡沫时代那些不盈利的初创公司不同,如今的人工智能领军企业能够创造可观的现金流。超大规模数据中心拥有数万亿美元的资产负债表,每年产生3000亿至4000亿美元的自由现金流,这为它们提供了1999年所不具备的财务缓冲。
然而,债务融资已成为一种日益增长的依赖。Oracle、Meta 和 CoreWeave 等公司已通过发行债券和私募信贷筹集了数十亿美元,用于数据中心扩张。虽然目前的现金流足以支撑这些债务,但这种策略也带来了再融资风险。如果利润下降、利率上升或人工智能应用未能达到预期,高杠杆公司可能会面临偿付能力压力。其后果将呈连锁反应:信贷环境收紧将限制资本支出,导致半导体需求放缓,并破坏建立在多年产量承诺基础上的供应链。
然而,乐观的观点依然令人信服。支持者认为,人工智能代表着一场百年一遇的生产力革命,堪比电气化或互联网本身。“人工智能超级周期”理论认为,这波投资浪潮将持续5-10年,远超典型的资本支出周期,其驱动力并非投机性过度投入,而是战略需要。中美两国在科技领域的竞争确保了政府和私营部门的持续投入,因为两国都将人工智能的主导地位视为地缘政治的必然选择。
最终的问题是,人工智能基础设施投资能否实现自我维持,还是会自我限制。如果人工智能应用能够带来变革性的生产力提升,实现企业工作流程自动化、加速药物研发、优化能源系统,那么当前的资本支出周期,事后看来,将成为构建新经济秩序的基础。然而,如果商业回报不足以支撑如此庞大的投资规模,那么结果可能是痛苦的撤退:资产搁浅、债务违约,以及类似2001-2002年那样的长期半导体行业低迷。
未来的道路需要保持警惕和灵活应变。英伟达将通过垂直整合和软件生态系统锁定来维持其主导地位,但来自AMD、英特尔以及超大规模定制芯片厂商日益激烈的竞争将逐渐侵蚀其利润空间。台积电和其他代工厂将通过溢价和战略性产能分配来利用稀缺性获利,但同时也必须应对威胁其核心地位的地缘政治压力。OpenAI和其他人工智能开发商已经以优惠的条件锁定了多年的GPU供应,成为真正的战略赢家,它们能够抵御市场波动,同时又能获取应用层价值。
最终,这场价值数万亿美元的人工智能竞赛能否成功,取决于能否确保可持续增长所依赖的物质和经济基础——能源、材料、资本和社会信任。半导体行业已经以前所未有的规模构建了基础设施。这项投资最终是会带来变革还是过度,将取决于人工智能能否产生与投入资本相匹配的商业回报。强劲的企业现金流和地缘政治承诺提供了以往技术周期所缺乏的韧性,但债务融资和高度集中的供应链也带来了不容忽视的脆弱性。
未来的道路需要应对供应链多元化、能源限制以及应用层货币化这一关键挑战。半导体生态系统已经奠定了基础;下一阶段将决定人工智能基础设施的投入是会催生一个新的生产力时代,还是需要进行重大调整。
可以肯定的是,未来几年做出的决策将塑造未来几十年全球技术经济的发展轨迹。
本文来自微信公众号“半导体行业观察”(ID:icbank),作者:Nikhil Vishnu,36氪经授权发布。















