依据华为官方规格和整机适配方案,910B系列按算力升序分为四款型号,显存和整机配套存在关键差异:
| 官方型号 | FP16算力 (TFLOPS) | 显存容量 | 对应整机型号 | 核心应用场景 |
|---|---|---|---|---|
| 910B4 | 280 | 32GB HBM2 | Atlas 800I A2 | 边缘推理、工业质检、端侧轻量化任务 |
| 910B3 | 313 | 64GB HBM2 | Atlas 800T A2 | 通用训练/推理、智算中心主力负载 |
| 910B2 | 376 | 64GB HBM2 | Atlas 800T A2 | 高精度科研训练、金融风控模型开发 |
| 910B1 | 414 | 64GB HBM2 | HuaKun AT900 A2(液冷) | 超算中心、千亿参数大模型训练集群 |
关键差异说明:
显存限制:B4仅32GB显存,无法支持千亿级模型训练(如DeepSeek R1需≥64GB显存);
成本与密度:B1液冷定制机型支持8卡/4U高密度部署(PUE≤1.15),适用于超算中心集约化需求;
误购风险:部分供应商将B4宣传为“训练卡”,但其算力仅为B1的67%,显存减半,需警惕场景错配。
作为910B的迭代产品,910C通过系统级创新实现性能跃升,但面临工艺制约:
性能指标:双芯合封设计,FP16算力达780-800 TFLOPS,内存带宽3.2TB/s,超越英伟达H100的60%(接近96%),单位算力成本低55%;
量产瓶颈:中芯国际7nm DUV工艺良率仅35%-36%(目标年底40%),单片成本14.5万元,显著高于910B的9万元;
集群效能:CloudMatrix 384超节点(384张910C)算力达300PFlops,训练效率较传统架构提升45%,成本节省1/3。
政企智算中心:
北京中关村、上海松江节点采购910B3构建百P级算力池,服务科研机构与央企合规需求;
深圳鹏城实验室部署910C超节点,支撑“盘古”千亿模型训练。
垂直行业龙头:
电网:国网重庆信通6台910B服务器提供19.2PFlops算力,用于电力设备智能检修;
工业:武汉光谷中心3000张910B驱动AI质检方案,故障识别精度99.2%。
出海替代:沙特超算中心转向昇腾替代40%英伟达订单,德法实验室批量采购液冷服务器。
大模型训练:910C支撑384卡超节点训练万亿参数MOE模型,时延较英伟达方案降低30%;
金融安全:上海松江中心联合商汤开发交易反欺诈模型,推理延迟<5ms;
边缘推理:B4适配Atlas 800I A2服务器,支持工业生产线实时质检(响应时间≤10ms)。
价格竞争力:910B 8卡服务器月租3.4万元,仅为英伟达H100同级配置的38%;
政策补贴:白名单机房享国家补贴,西安节点租金较东部低15%-20%。
阶梯定价(上海松江):中小企业可租用10卡微集群,首年免押金;
算力+算法套餐(深圳鹏城):预装优化版PyTorch框架,开发周期缩短30%;
跨域调度(粤港澳枢纽):依托“东数西算”工程实现3ms超低时延训练。
截至2025年7月,昇腾910B/C在国家级算力枢纽规模化部署,形成东西协同网络:
| 城市 | 代表节点 | 芯片部署量 | 核心场景 |
|---|---|---|---|
| 北京 | 中关村智算中心 | 70%节点为910B | 大模型研发、生物医药 |
| 上海 | 松江人工智能计算中心 | 5000张910B | 金融科技、自动驾驶 |
| 深圳 | 鹏城实验室 | 首期384张910C | 千亿模型训练(如“盘古”) |
| 武汉 | 光谷人工智能算力中心 | 3000张910B | 工业仿真、智能制造 |
| 重庆 | 省级智算中心 | 6台Atlas 910B | 电网智能检修 |
| 粤港澳 | 中国电信昇腾超节点 | 384张910C | 万亿MOE模型训练 |
次级节点:杭州之江实验室、成都智算中心、南京江北新区同步纳入工信部白名单。
昇腾910B/C通过 “四型号精准覆盖+910C超节点突破” 双轨策略,支撑国产AI算力基座建设:
✅ 场景化优势:B4-B1覆盖边缘至超算,910C集群效能比肩国际顶尖水平;
✅ 租赁市场爆发:成本优势+政策驱动,运营商算力业务价值重估(如中国电信IDC收入增长56.9%);
⚠️ 硬性挑战:910C良率(35%)与生态适配仍待突破,需加速FP8支持(910D预计2026年量产)。