英伟达国内H200备货50万颗,但1月4日前头部互联网、IDC、政府客户意向订单达75万台八卡服务器(约600万颗芯片),订单超额比例约1:10,分卡存在困难;H200目前不能部署在数据中心,仅可向无国资/政府属性、未接到通知的尾部客户供应。若无法国内部署,CSP大概率不会实际下单。
字节2026年1500亿元用于采购AI服务器,tokens三倍增长,因用卡需求已全面加单并有望持续上修。2026年国内AI服务器CAPEX:已确定为1500亿元,用于采购AI服务器(不含CPU及土地等其他CAPEX)。
外购卡框架协议:寒武纪270亿、海光130亿、昇腾100亿、昆仑5w颗、沐曦5w颗。实际下单量为框架协议的40%。
自研卡具体情况:
一代自研卡采用三星6纳米制程,定位为内部AI应用推理专用,不对外销售。计划1月完成版图加密,2月下旬回样片,5月进入量产,5月至12月陆续交片。良率爬坡,5-8月良率约为50%。定价为2500美元/颗,其硬件成本内部预估为500美元/颗(芯原利润空间)。付款方式为交片测试通过后结算,实行按月交付按月付款。
第二代自研卡于1月4日至5日启动前端设计,目前功能定义阶段已完成。采用三星4纳米制程,芯片尺寸为1200平方毫米,双Die合封,包含两个560平方毫米的计算Die和一个80平方毫米的I/O Die;功耗范围为800至1000瓦;显存采用三星HBM3,容量为144GB;SerDes IP采用Alphawave 112G,其授权已续期3年。在对标方面,除SerDes通讯互联性能稍弱外,其显存容量、带宽、制程和算力均可与H100对标,推理性能无问题,训练性能则稍逊。
采购与成本上,规划产量为5万片晶圆,每片晶圆可切割出20颗芯片,总计100万颗;目前已支付5000片晶圆的定金(比例为50%),款项通过芯原支付。价格谈判方面,芯原报价为5000美元/颗,目标是将价格降至4500美元/颗;其硬件成本约为3500美元/颗,利润空间为1000美元/颗。
寒武纪合作优先级:若寒武纪无产能问题,将成为外部AI芯片采购第一位;其芯片从GPGPU转向ASIC,算子加速模块适配字节豆包模型需求,且字节投入大量适配资源。
芯原合作价值:核心优势为三星产能获取能力(国内80%三星流片公司通过芯原)及后端工艺包熟悉度(6纳米、4纳米、8纳米模拟工艺),后续自研卡设计大概率继续合作。
字节2026年1500亿元用于采购AI服务器,tokens三倍增长,因用卡需求已全面加单并有望持续上修。2026年国内AI服务器CAPEX:已确定为1500亿元,用于采购AI服务器(不含CPU及土地等其他CAPEX)。
外购卡框架协议:寒武纪270亿、海光130亿、昇腾100亿、昆仑5w颗、沐曦5w颗。实际下单量为框架协议的40%。
自研卡具体情况:
一代自研卡采用三星6纳米制程,定位为内部AI应用推理专用,不对外销售。计划1月完成版图加密,2月下旬回样片,5月进入量产,5月至12月陆续交片。良率爬坡,5-8月良率约为50%。定价为2500美元/颗,其硬件成本内部预估为500美元/颗(芯原利润空间)。付款方式为交片测试通过后结算,实行按月交付按月付款。
第二代自研卡于1月4日至5日启动前端设计,目前功能定义阶段已完成。采用三星4纳米制程,芯片尺寸为1200平方毫米,双Die合封,包含两个560平方毫米的计算Die和一个80平方毫米的I/O Die;功耗范围为800至1000瓦;显存采用三星HBM3,容量为144GB;SerDes IP采用Alphawave 112G,其授权已续期3年。在对标方面,除SerDes通讯互联性能稍弱外,其显存容量、带宽、制程和算力均可与H100对标,推理性能无问题,训练性能则稍逊。
采购与成本上,规划产量为5万片晶圆,每片晶圆可切割出20颗芯片,总计100万颗;目前已支付5000片晶圆的定金(比例为50%),款项通过芯原支付。价格谈判方面,芯原报价为5000美元/颗,目标是将价格降至4500美元/颗;其硬件成本约为3500美元/颗,利润空间为1000美元/颗。
寒武纪合作优先级:若寒武纪无产能问题,将成为外部AI芯片采购第一位;其芯片从GPGPU转向ASIC,算子加速模块适配字节豆包模型需求,且字节投入大量适配资源。
芯原合作价值:核心优势为三星产能获取能力(国内80%三星流片公司通过芯原)及后端工艺包熟悉度(6纳米、4纳米、8纳米模拟工艺),后续自研卡设计大概率继续合作。