最近几年,如果你稍微关注科技新闻,一定会被一个词频频刷屏——AI算力。从ChatGPT的火爆,到各种大模型的“百模大战”,背后都离不开一个核心硬件:AI加速卡。这东西,你可以把它理解为专门为人工智能计算打造的“超级引擎”。那么,问题来了,在这个决定未来智能高度的赛道上,国内外有哪些主要玩家?他们的座次又是如何排定的呢?今天,我们就来扒一扒这份充满变数的“AI加速卡厂家排行榜”。
说到排行榜,我们得先看数据说话。根据国际知名数据机构IDC最新发布的报告,2025年中国AI加速卡市场的画卷,可以说发生了颠覆性的变化。一个最显著的标志是:曾经近乎垄断市场的巨头英伟达,其在国内的市场份额出现了大幅下滑,从过去的绝对主导地位跌至约55%。与之形成鲜明对比的是,中国本土芯片厂商集体崛起,拿下了接近41%的市场份额,总出货量达到了约165万张。这绝对是一个里程碑式的拐点,意味着国产算力替代从口号走进了现实。
那么,在这片硝烟弥漫的战场上,国产厂商的“英雄榜”究竟如何呢?我们根据市场份额和出货量,整理出了2025年的国产AI加速卡TOP8榜单。
表1:2025年中国市场国产AI加速卡厂商出货量排名(基于IDC报告数据整理)
| 排名 | 厂商 | 2025年出货量(约) | 市场份额(占国产份额) | 核心背景/技术路线 |
|---|---|---|---|---|
| :--- | :--- | :--- | :--- | :--- |
| 1 | 华为 | 81.2万颗 | 近50% | 全栈技术能力,昇腾系列,自研达芬奇架构 |
| 2 | 平头哥(阿里巴巴) | 26.5万颗 | 互联网巨头自研,含光系列 | |
| 3 | 昆仑芯(百度) | 11.6万张 | 互联网巨头自研,XPU架构 | |
| 3 | 寒武纪 | 11.6万张 | AI芯片独角兽,MLU系列 | |
| 5 | 海光信息 | 约8.25万张(占5%) | 5% | 兼容x86及ROCm生态 |
| 6 | 沐曦 | 约6.6万张(占4%) | 4% | 专注于高性能GPU |
| 7 | 天数智芯 | 约4.95万张(占3%) | 3% | 通用GPU,BigIsland架构 |
| 8 | 清微智能 | 约3.3万张(占2%) | 2% | 可重构计算技术(RPU) |
看这份榜单,有几个点非常有意思,值得拎出来说道说道。
首先,华为的“断层式”领先,可以说是意料之中,也是实力所致。81.2万颗的出货量,不仅占据了国产阵营近一半的江山,在整个中国市场的份额也接近20%。华为的强大,不仅仅在于芯片本身。它构建了从芯片(昇腾)、硬件(Atlas服务器)、到框架(MindSpore)和开发平台的全栈能力。这种“全家桶”式的生态,尤其受到对自主可控、供应链安全有极高要求的政企客户的青睐。比如在智能计算中心、政务云这些国家级新基建项目里,华为几乎是标配选择。它的Atlas系列加速卡,在处理大模型推理时,凭借对FP4低精度格式的独家支持,能大幅降低显存占用,实现单卡运行大模型,性价比优势明显。
其次,互联网巨头的硬件野心不容小觑。阿里巴巴的平头哥和百度的昆仑芯分列第二和第三(并列),出货量都达到了十万张级别。这说明了什么?说明AI时代,顶级的应用需求正在反向驱动底层硬件的自研。阿里和百度自身就有海量的AI业务场景,从电商推荐到搜索引擎,再到自动驾驶和云服务。自己造“引擎”,既能更好地优化性能、降低成本,也能避免在核心算力上被“卡脖子”。平头哥的含光系列、百度昆仑芯的K/R系列,都是经过自身业务千锤百炼后才推向市场的产品。
再者,榜单呈现了技术路线的多元化。除了主流的GPU和类GPU架构,我们看到了一些差异化的技术路径。最典型的“黑马”就是排在第八位的清微智能。它是TOP8中唯一一家以可重构计算技术(RPU)杀入赛道的玩家。简单理解,这种技术不像传统芯片那样电路固定,而是可以根据不同的AI算法动态调整硬件结构,理论上能获得更高的能效比。虽然目前市场份额还小,但它代表了一种突破同质化竞争、寻求技术创新的可能性。与此同时,非GPU架构的加速卡(包括ASIC、RPU等)在国内AI服务器市场的占比已经超过了40%,这成为打破海外垄断的一条重要技术路径。
当然,我们也不能忽视仍在王座上的国际巨头。英伟达虽然份额下滑,但55%的市场占比依然说明了其生态的深厚壁垒。CUDA构建的开发者王国,以及其在高端训练市场的绝对性能优势,短期内仍难以被完全取代。AMD等国际厂商也在持续发力。国产替代的道路,远非一片坦途。
那么,是什么力量在短短一两年内,如此剧烈地重塑了市场格局呢?背后主要是两大推手:
第一,毋庸讳言,是持续的外部压力。近年来一系列针对高端AI芯片的出口管制措施,客观上给国内市场敲响了警钟,也催生了强烈的自主替代需求。企业采购时,不得不将供应链安全和技术自主可控提到前所未有的高度。
第二,是蓬勃的内需拉动。从2024年到2025年,全国范围内掀起了智能计算中心建设的热潮。这些由政府主导、为区域AI发展提供公共算力服务的项目,在采购招标中普遍向国产芯片倾斜,形成了强大而稳定的市场需求。这为国产加速卡厂商提供了宝贵的“练兵场”和规模化应用的机会。
聊完了排名和原因,我们不妨再深入一层,看看这些加速卡到底用在哪里,各家又有什么看家本领。粗略可以分成三大场景:训练、推理和边缘计算。
在训练场景,这是最“吃”算力的部分,好比是AI模型的“炼丹炉”。华为的昇腾910B、百度的昆仑芯P800等都是为大规模集群训练设计的。它们比拼的是高精度浮点算力(FP16/FP32)、巨大的显存带宽和高效的卡间互联能力,目标是更快地“炼”出千亿、万亿参数的大模型。
在推理场景,模型训练好后投入使用,就像“大脑”开始思考和工作。这时更看重能效比、延迟和成本。寒武纪的MLU系列、燧原的云燧系列在这方面表现突出。例如在视频内容审核、智能客服对话这些高并发场景下,如何用更低的功耗和延迟处理海量请求,是它们的核心战场。
在边缘端,设备可能是一台摄像头、一辆车或者一个机器人,对功耗和体积极其敏感。这时就需要寒武纪MLU220这类低功耗、算力适中的芯片,在端侧实时完成视觉识别、语音唤醒等任务。
展望未来,这场竞赛远未结束。IDC预测,2026年将是中国算力需求从“云端训练”向“训练+推理”双轮驱动转型的关键之年。这意味着,市场对加速卡的需求会更加多元和均衡。国产厂商们,一方面要继续在绝对性能上追赶,尤其是在高端训练集群的软硬件协同优化上;另一方面,更需要补齐生态的短板,包括完善的开发者工具链、丰富的模型迁移案例、稳定的驱动支持和透明的定价体系。有用户就吐槽,有些国产卡“买回来装不上、跑不动、修不了”,这种体验上的差距,有时比参数上的差距更影响普及。
总之,2025年的这份AI加速卡厂家排行榜,生动地展现了一个“一超多强、国产崛起”的新格局。华为一马当先,互联网大厂紧追不舍,特色技术厂商崭露头角。市场竞争的加剧,最终受益的将是整个产业和用户。国产算力的崛起之路,注定是一场需要耐力、技术和生态全面突破的长跑。但至少现在,我们已经看到了领跑者清晰的身影,和身后越来越多追赶者的脚步。这场关乎未来智能世界根基的竞赛,好戏,才刚刚开始。
