根据TrendForce集邦咨询最新公布的AI服务器产业研究报告显示,为加速AI应用导入与升级,全球云端服务供应商(CSP)持续加强投资AI服务器及相关基础建设,预计2026年八大主要CSP的合计资本支出将超越7,100亿美元,同比大涨约61%。这些CPS厂商除持续采购英伟达(NVIDIA)、AMD的GPU方案外,也在扩大导入面向AI数据中心的ASIC方案,以确保各项AI应用服务的适用性,以及数据中心建置成本效益。

这八大CSP包含美系Google(谷歌)、AWS(亚马逊云科技)、Meta、Microsoft(微软)、Oracle(甲骨文)以及中系的Tencent(腾讯)、Alibaba(阿里巴巴)、Baidu(百度)。
TrendForce预估,2026年Google母公司Alphabet的资本支出有望超1,783亿美元,同比大涨95%。Google较其他CSP更早投入自研ASIC,已累积显著的研发优势,预期今年TPU主力将转进至v8新平台。受惠Google Cloud Platform、Gemini等AI应用带动TPU需求,预估2026年TPU于Google AI服务器的出货占比将上升至逼近78%,扩大与基于GPU的AI服务器的差距。Google也是各CSP中唯一ASIC机种出货比例高于GPU机种的业者。
亚马逊近期则上调对英伟达GB300、V200整柜系统的采购规模,反映其加速导入更高功耗与密度的GPU平台,以应对云端AI训练、推理服务扩张需求,预估2026年其GPU服务器在其AI服务器当中占比将达近60%。在自研ASIC当面,预计亚马逊新一代Trainium 3将于2026年第二季起接替Trainium 2/2.5放量,系统端因尚需配合软件成熟度、产品验证等,出货动能可能到下半年才较为显著。
TrendForce预估2026年Meta的资本支出将突破1,245亿美元,同比增长77%。其AI服务器也以英伟达、AMD方案为主,预估GPU机种占比仍将达80%以上;另欲推进自研ASIC,以降低单位算力成本、分散对单一供应商的依赖,不过据供应链评估,其MTIA目前仍受软硬件系统调校耗时等影响,恐面临实际出货不如原预期的风险。
微软看好大模型训练推理的长期需求,主要购置NVIDIA整柜解决方案支持其AI服务器出货。该公司日前发布自研芯片Maia 200,锁定高效率AI推理应用。甲骨文则因应Stargate、OpenAI等扩增AI数据中心项目,持续布局GPU整柜式方案。
分析中系CSP动态,尽管字节跳动未公开披露2026年资本支出细节,TrendForce预估其一半以上资金将用于采购AI芯片相关。英伟达H200可望成为字节跳动AI服务器的一项主要方案,但仍需根据后续美国、中国审查情况而定。字节跳动同时扩大导入本土AI芯片,主要采用Cambricon等方案。
腾讯外购英伟达等GPU方案支撑云端、生成式AI需求,也同时与当地业者合作发展ASIC自主方案,聚焦网通应用、数据中心基础架构、在线AI应用服务等场景,以分散算力来源并提升系统整合弹性。
阿里巴巴和百度皆积极自研ASIC AI芯片。阿里巴巴旗下有平头哥、阿里云事业等,提供公有云和其他在线服务的AI应用基础设施,并开发Qwen(通义千问)LLM及App应用软件等,同时面向自用云端、企业和消费性用户。百度规划于2026后陆续导入Kunlun新方案,锁定大规模AI训练或AI推理应用,并尝试发展AI服务器集群超节点天池系列,连接可达数百颗AI芯片以强化整体AI系统运算能力。