首页 > 乐鱼登录入口登录 > CAN接口

中信建投:国产算力产业链投资展望

时间: 2025-02-22 11:42:17 |   作者: CAN接口


  重要提示:通过本订阅号发布的观点和信息仅供中信建投证券股份有限公司(下称“中信建投”)客户中符合《证券期货投资的人适当性管理办法》规定的机构类专业投资者参考。因本订阅号暂时无法设置访问限制,若您并非中信建投客户中的机构类专业投资者,为控制投资风险,请您请取消关注,请勿订阅、接收或使用本订阅号中的任何信息。对由此给您造成的不便表示诚挚歉意,感谢您的理解与配合!

  DeepSeek作为开源AI大模型,云厂商或应用厂商可以再一次进行选择进行本地化或云端部署,预计将拉动对于算力基础设施的需求,算力服务提供商、私有云/公有云服务厂商等有望获益。

  在深度推理的阶段,大模型的未来算力需求依然会呈现爆发式上涨,充足的算力需求对于人工智能模型的性能进步依然至关重要。

  中信建投证券通信、人工智能、公用环保等研究团队推出【国产算力产业链投资展望】:

  北美四家云厂商相继发布了财报,资本开支保持快速地增长的趋势,算力基础设施产业链依旧维持较高景气度。

  2024Q4资本开支总计为795亿美元,同比增长76.75%,环比增长22.60%。2024年全年达2504亿美元,同比增长62%。

  为了满足一直增长的算力需求和确保未来在AI领域的竞争力,云厂商资本开支持续创新高,用于建设AI基础设施,建议重视算力产业链。

  DeepSeek发布的R1模型在保持优异性能指标的同时大幅度降低训练和推理成本,在行业内引起巨大反响,推荐着重关注端侧应用场景的发展。

  高性能、轻量化、低成本的模型能力将显著推动端侧AI产业高质量发展。端侧硬件设备是将大模型能力进行实物化输出落地的关键环节,近日OpenAI 的 CEO Sam Altman 在接受各个媒体采访时也透露 OpenAI 将开发可替代手机的生成式 AI 专用终端。

  国内物联网模组厂商在端侧AI领域具备先发优势,并积极进行产业布局,建议重点关注。

  近日,中国电信、中国联通、中国移动三大运营商相继宣布上线 DeepSeek,建议关注算力/云服务商。

  中国电信通过天翼云全场景上架 DeepSeek,提供从部署到推理、微调的全流程服务。联通云已基于星罗平台实现国产及主流算力适配多规格DeepSeek-R1模型,兼顾私有化和公有化场景,提供全方位运行服务保障。中国移动移动云则全面上线 DeepSeek,实现全版本覆盖、全尺寸适配、全功能使用。

  DeepSeek作为开源AI大模型,云厂商或应用厂商可以再一次进行选择进行本地化或云端部署,预计将拉动对于算力基础设施的需求,算力服务提供商、私有云/公有云服务厂商等有望获益。

  国际环境变化对供应链的安全和稳定产生一定的影响,对相关公司向海外拓展的进度产生一定的影响;AI行业发展没有到达预期,影响云计算产业链相关公司的需求;市场之间的竞争加剧,导致毛利率快速下滑;汇率波动影响外向型企业的汇兑收益与毛利率,包括ICT设备、光模块/光器件等板块的企业;数字化的经济和数字中国建设发展没有到达预期等;电信运营商的云计算业务发展没有到达预期;运营商资本开支没有到达预期;云厂商资本开支没有到达预期;通信模组、智能控制器行业需求不及预期。

  证券研究报告名称:《云厂Capex持续高增,关注Deepseek算力服务与端侧》

  近期,以开源、低成本、高性能为特征的DeepSeek系列大模型火爆出圈, 人工智能大范围的应用的落地有望加速。从整体耗电量角度来看,AI应用场景范围的拓展将带动算力需求的提升,进而推动用电量规模的加速提升。算力中心区域集中,东部发达地区传统上数据中心多,虽 “东数西算” 推进,但因 “热数据” 对算力延迟要求高,东部算力规模仍快速地增长,进一步加大地区用电负荷。2024 年 9 月国家能源局发文,要求 2025 年底国家枢纽节点新建数据中心绿电占比超 80% 。按此推算,2025 年算力对绿电消纳边际贡献约 102 亿千瓦时。现阶段,公网配电 + 绿电、绿证交易 + 部分自建新能源储能应急,是提升绿电占比的重要方式,因此绿电绿证消纳需求有望增长。

  近期,以开源、低成本、高性能为特征的DeepSeek系列大模型火爆出圈, 人工智能大范围的应用的落地有望加速。电力作为人工智能长期发展的底层资产之一,在算力需求持续攀升的大背景下,其重要性愈发凸显。

  从整体耗电量角度来看,AI应用场景范围的拓展将带动算力需求的提升,进而推动用电量规模的加速提升。根据中国信通院统计,2023年我国数据中心用电规模约1500亿千瓦时。同时,根据IDC对我国算力增长的预期,到2025年我国通用算力和智能算力有望增长至86EFlops(FP32精度)和617EFlops(FP16精度)。在此趋势下,根据现有算力中心的能耗情况,到2025年用电量规模有望增长至1878亿千瓦时,边际贡献约212.7亿千瓦时。长久来看,尽管算力功耗在技术进步的推动下有望持续改善,但 AI 应用的爆发式增长仍将使整体用电需求持续攀升。

  传统情况下,我国数据中心主要分布在东部较发达地区。伴随“东数西算”工程建设的推进,我国规划了八大国家枢纽节点和十大国家数据中心集群,土地资源充足且可再次生产的能源丰富的中西部地区承建数据中心建设规模有所增长,但算力负荷仍存在非常明显的区域集中性。与此同时,由于“热数据”对算力延迟性要求比较高,且大模型产业的经济效益较大,东部地区算力规模仍维持较高速度的增长。2024年1-10月,我国新增196个智算中心项目招标,其中广东、山东、新疆、安徽四地新增数量分别为23、17、12和11个,位居前列。在此趋势下,算力负荷的区域集中性和有望提升,持续推动所属地区用电需求的增长。

  2024年9月,国家能源局发布了《数据中心绿色低碳发展专项行动计划》,要求到2025年底,国家枢纽节点新建数据中心的绿电占比需超过80%,且国家枢纽节点地区各类新增算力占全国新增算力的60%以上。假设国家枢纽节点占比为60%且绿电使用为80%,根据上文计算结果,则2025年算力对绿电消纳的边际贡献约为102亿千瓦时。在具体的绿电消纳方式方面,《计划》鼓励数据中心通过参与绿电绿证交易等方式提高可再次生产的能源利用率,同时,部分数据中心采用自建新能源配储的方式提升绿电使用率。从经营成本及可行性来看,可再次生产的能源配储的稳定性尚不及公网用电(尤其对于稳定性要求比较高且新能源相对贫乏的东部“热数据”算力中心),因此我们大家都认为现阶段公网配电+绿电和绿证交易+部分自建新能源储能应急是提升绿电占比的重要方式,绿电绿证消纳需求有望增长。

  煤价上涨的风险:由于目前火电长协煤履约率不达100%的政策目标,因此火电燃料成本仍然受到市场煤价波动的影响。如果现阶段煤价大面积上涨,则将造成火电燃料成本提升。

  区域利用小时数下滑的风险:受经济转型等因素影响,我国用电需求存在一定波动。如果后续我国用电需求转弱,那么火电存在利用小时数下滑的风险。此外风电、光伏受每年来风、来光条件波动的影响,出力情况随之波动。如果当年来风、来光较差,或者受电网消纳能力的限制,则风电、光伏存在利用小时数下滑的风险。

  电价下降的风险:在发改委全方面推进火电进入市场化交易并放宽电价浮动范围后,受市场供需关系和高煤价影响市场电价长期维持较高水准。如果后续电力供给过剩或煤炭价格回落、火电长协煤机制实质性落地,引导火电企业燃料成本降低,则火电的市场电价有下降的风险。

  新能源装机进展没有到达预期的风险:新能源发电装机受到政策指引、下游需求、上游材料价格等多因素影响,装机增速具备不确定性,存在装机增速没有到达预期的风险。

  新能源电源出力波动的风险:新能源的分散性、不稳定性和利用的高成本性制约着新能源发电项目的发展。新能源发电项目面临着在资源、技术、经济、管理、市场等多方面问题,其投资建设和管理模式也存在诸多差异和不确定性。

  Deepseek发布深度推理能力模型。R1-Zero采用纯粹的强化学习训练,证明了大语言模型仅通过强化学习也可以有强大的推理能力,DeepSeek-R1经历微调和强化学习取得了与OpenAI-o1-1217相媲美甚至超越的成绩。DeepSeek R1训练和推理算力需求较低,根本原因是DeepSeek R1实现算法、框架和硬件的优化协同。过去的预训练侧的scaling law正逐步迈向更广阔的空间,在深度推理的阶段,模型的未来算力需求依然会呈现爆发式上涨,充足的算力需求对于人工智能模型的性能进步依然至关重要。

  Deepseek发布两款具备深度推理能力的大模型R1-Zero和DeepSeek-R1。R1-Zero采用纯粹的强化学习训练,模型效果逼近OpenAI o1模型,证明了大语言模型仅通过RL,无SFT,大模型也可以有强大的推理能力。但是R1-Zero也存在可读性差和语言混合的问题,在进一步的优化过程中,DeepSeek-V3-Base经历两次微调和两次强化学习得到R1模型,最重要的包含冷启动阶段、面向推理的强化学习、拒绝采样与监督微调、面向全场景的强化学习四个阶段,R1在推理任务上表现出色,特别是在AIME 2024、MATH-500和Codeforces等任务上,取得了与OpenAI-o1-1217相媲美甚至超越的成绩。

  在Deepseek R1-Zero模型中,采用的强化学习策略是GRPO策略,取消价值网络,采用分组相对奖励,专门优化数学推理任务,减少计算资源消耗;KIMI 1.5采用Partial rollout的强化学习策略,同时采用模型合并、最短拒绝采样、DPO 和long2short RL策略实现短链推理;Qwen2.5扩大监督微调数据范围以及两阶段强化学习,增强模型处理能力。

  DeepSeek R1通过较少算力实现高性能模型表现,根本原因是DeepSeek R1实现算法、框架和硬件的优化协同。

  DeepSeek R1在诸多维度上进行了大量优化,算法层面引入专家混合模型、多头隐式注意力、多token预测,框架层面实现FP8混合精度训练,硬件层面采用优化的流水线并行策略,同时高效配置专家分发与跨节点通信,实现最优效率配置。当前阶段大模型行业正处于从传统的生成式模型向深度推理模型过渡阶段,算力的整体需求也从预训练阶段逐步过渡向后训练和推理侧,通过大量协同优化,DeepSeek R1在特定发展阶段通过较少算力实现高性能模型表现,算力行业的长期增长逻辑并未受到挑战。过去的预训练侧的scaling law正逐步迈向更广阔的空间,在深度推理的阶段,模型的未来算力需求依然会呈现爆发式上涨,充足的算力需求对于人工智能模型的性能进步依然至关重要。

  大模型技术发展没有到达预期:大模型属于先进AI算法,若后续大模型算法更新迭代效果没有到达预期,则会影响大模型演进及拓展,进而会影响其商业化落地等;

  商业化落地没有到达预期:大模型的商业落地模式在业界中普遍处于探索阶段,用户对于大模型的接受程度和商业化变现能力可能没有到达预期;

  算力基础设施支持不及预期:美国制裁中国高科技企业,对中国形成芯片、算力的封锁,大语言模型训练过程中需要大量算力资源,要关注中美关系带来的算力的压力;

  政策监督管理力度没有到达预期:大语言模型带来新的网络生态商业,尚属于前期成长阶段,政策监管难度加大,有关规定法律法规尚不完善,政策监督管理力度可能没有到达预期;

  数据数量与数据质量不及预期:大型语言模型需要大量的高质量数据来进行训练,若数据数量和质量存在短板,则会影响大语言模型效果。

  近日,美国BIS正式对外发布了一项全球AI管控新规,涉及GPU等硬件以及将AI模型权重纳入监管范围。虽然尚不清楚接下来的特朗普政府对于这一禁令会怎么样处理,但美国在科技领域对于中国的封锁持续已久,国产芯片在设计、制造等关键领域也在持续突破。在美国制裁持续升级的背景下,国产算力自立自强大势所趋,建议关注GPU、交换芯片、光芯片等关键环节。

  此外,展望2025年,我们看好AI应用的落地,随只能眼镜、机器人以及各种可穿戴设备的涌现,新的应用与新的硬件终端结合有望打造出更多的爆款场景,也将进一步拉动基础设施的需求,持续看好AI板块,包括基础设施产业链和端侧AI应用相关产业链。

  2025年1月13日,美国商务部工业与安全局(BIS)正式对外发布了一项全球AI管控新规,涉及GPU等硬件以及将AI模型权重纳入监管范围。BIS将出口目的地分为三个层级,其中第一层级为美国的18个核心盟友,这些国家可以自由进行AI芯片采购;第二层级覆盖全球大部分国家和地区,在2025-2027年间能获得大约相当于5万块英伟达H100 GPU的算力,这些国家的公司能够申请NVEU(国家验证最终用户)资格,获批后可将算力上限提升至约32万块GPU的水平;第三层级中的国家和地区将面临全面禁止。这项规定的另一个重要部分是将AI模型权重纳入出口管制范围,训练计算量超过10^26次运算的模型在出口时将需要授权。开源模型被豁免出管制范围;还有超过计算量阈值的闭源模型,如果其性能不及最先进的开源模型,也将获得豁免。虽然尚不清楚接下来的特朗普政府对于这一禁令会怎么样处理,但美国在科技领域对于中国的封锁持续已久,国产芯片在设计、制造等关键领域也在持续突破。

  算力作为AI产业高质量发展的基础,在美国制裁持续升级的背景下,国产算力自立自强大势所趋,建议关注GPU、交换芯片、光芯片等关键环节。

  此外,展望2025年,我们看好AI应用的落地,随只能眼镜、机器人以及各种可穿戴设备的涌现,新的应用与新的硬件终端结合有望打造出更多的爆款场景,也将进一步拉动基础设施的需求,

  国际环境变化对供应链的安全和稳定产生一定的影响,对相关公司向海外拓展的进度产生一定的影响;AI行业发展没有到达预期,影响云计算产业链相关公司的需求;市场之间的竞争加剧,导致毛利率快速下滑;汇率波动影响外向型企业的汇兑收益与毛利率,包括ICT设备、光模块/光器件板块的企业;数字化的经济和数字中国建设发展没有到达预期;电信运营商的云计算业务发展没有到达预期;运营商资本开支没有到达预期;云厂商资本开支没有到达预期;通信模组、智能控制器行业需求不及预期。

  CES 2025 1月7日-10日在美国举行,此次CES 2025主题是“DIVE IN”,重点由AI进一步向“AI+”延伸,涵盖机器人、消费电子、无人驾驶、智能家居等一系列AI应用。

  英伟达发布了个人AI超级计算机Project DIGITS、基于Blackwell架构的RTX 50系列显卡等产品,推出了Llama Nemotron语言基础模型、世界基础模型“Cosmos”。马斯克采访表示,有信心到2025年第二季度,无人驾驶将比人类驾驶员更安全;人形机器人方面,计划今年生产数千台人形机器人,明年、后年产量军增加10倍,三年内将产能扩大到50万台机器人,最终人形机器人与人类的比例至少是3:1,甚至有可能是4:1或5:1。

  看好2025年AI应用落地,AI应用发展也将进一步拉动基础设施的需求,持续看好算力板块,包括算力基础设施产业链和端侧AI应用相关产业链。

  国际环境变化对供应链的安全和稳定产生一定的影响,对相关公司向海外拓展的进度产生一定的影响;AI行业发展没有到达预期,影响云计算产业链相关公司的需求;市场之间的竞争加剧,导致毛利率快速下滑;汇率波动影响外向型企业的汇兑收益与毛利率,包括ICT设备、光模块/光器件等板块的企业;数字化的经济和数字中国建设发展没有到达预期等;电信运营商的云计算业务发展没有到达预期;运营商资本开支没有到达预期;云厂商资本开支没有到达预期;通信模组、智能控制器行业需求不及预期。

  本周,2024火山引擎FORCE原动力大会在上海召开,正式对外发布豆包视觉理解模型、豆包 3D 生成模型,以及全面升级的豆包通用模型pro、音乐模型和文生图模型等。其中豆包通用模型pro在综合任务解决能力较5月份提升32%,在推理上提升13%,在数学上提升43%,在专业相关知识领域能力提升54%。在市场高度关注的视觉模型领域,用户都能够同时输入文本和图像相关的问题。模型能够综合理解并给出准确的回答,豆包视觉理解的输入价格为每千tokens 0.003元,比行业平均价格降低85%,相当于一块钱能处理284张720P的图片,基于以上能力,豆包·视觉理解模型在教育、旅游、电商等场景很有广泛的应用。在豆包大模型能力不断的提高,以及成本持续下降的情况下,模型使用量剧增,豆包大模型12月日均tokens使用量超过4万亿,较5月发布时期增长超过33倍。

  12月21日,OpenAI正式对外发布了o3,这是继今年9月推出的o1“推理”模型之后的新一代产品,o3包括了o3和o3-mini两个版本,其中o3-mini是一个更为紧凑的模型,专为特定任务进行了精细调整。o3性能相较于o1大幅度的提高,在ARC-AGI测试中,o1得分为25%至32%(满分为100%),o3在最佳状态下的得分达到了87.5%,在最差状态下,其性能也达到了o1的三倍,达到85%的得分即被认为是“人类水平”。OpenAI表示,新的o3模型会在处理问题时进行“深思熟虑”,以提供更好的答案,特别是对那些需要逐步逻辑推理的问题。

  目前国内外大厂均保持了大模型较快的升级迭代,模型能力迅速提升,更多的应用场景将解锁,应用的爆发拉动算力基础设施的需求,预计2025年各科技巨头仍将保持比较高的资本开支强度,建议全面关注海外及国内算力产业链,包括GPU、交换芯片、光模块、交换机、温控、液冷、连接器等环节。

  国际环境变化对供应链的安全和稳定产生一定的影响,对相关公司向海外拓展的进度产生一定的影响;AI行业发展没有到达预期,影响云计算产业链相关公司的需求;市场之间的竞争加剧,导致毛利率快速下滑;汇率波动影响外向型企业的汇兑收益与毛利率,包括ICT设备、光模块/光器件板块的企业;数字化的经济和数字中国建设发展没有到达预期;电信运营商的云计算业务发展没有到达预期;运营商资本开支没有到达预期;云厂商资本开支没有到达预期;通信模组、智能控制器行业需求不及预期。

  国内算力投资加大。互联网厂商侧,从腾讯、阿里巴巴两家云厂商资本开支情况去看,2023Q1开始呈现逐季度回暖态势,从23Q4开始同比转正,2024年以来较快增长。2024Q3,腾讯和阿里巴巴资本开支分别为170.94亿元、169.77亿元,分别同比增长114%、313%,2024Q1、2024Q2、2024Q3腾讯和阿里巴巴合计资本开支分别同比增长245%、108%、181%。

  运营商也在明显加码算力网络方面的资本开支。中国移动2024年计划总体资本开支1730亿元,同比下降4%,用于算力资本开支计划475亿元,同比增长21%。中国电信2024年计划总体资本开支960亿元,同比下降4%,用于产业数字化资本开支370亿元,同比增长4%,用于云/算力投资180亿元。中国联通2024年计划总体资本开支650亿元,同比下降12%,公司表示投资重点将由稳基础的联网通信业务转向高增长的算网数智业务。截至2024年中报,中国移动、中国电信、中国联通智算算力(FP16)分别达到19.6EFlops、21EFlops、10EFlops。

  国产芯片、大模型、应用端持续获得加快速度进行发展。国产头部芯片单芯片算力或已接近A100,或优于H20。以FP16精度为例,国产芯片中华为昇腾910算力为256TFLOPS,略低于A100的312TFLOPS,相较于H100的1513TFLOPS有很大的差距,但强于H20的148TFLOPS。此外,平头哥含光800在INT8精度,壁仞科技BR100在FP32精度均超过A100。在单颗芯片峰值算力上,国产芯片已满足大规模使用条件。近期中国证监会官网显示,摩尔线程在北京证监局办理辅导备案登记,启动A股上市进程,此前8月燧原科技在上海证监局办理了上市辅导备案,9月壁仞科技在上海证监局办理IPO辅导备案登记。同时国内大模型厂商的能力也在快速提升,应用加速发展。SuperCLUE最新2024年10月测评结果为,国产第一梯队大模型已与GPT4-4o得分拉至接近。

  智算中心建设适度超前。2024年10月,国务院国资委主任张玉卓在《新型工业化》发文中提到,中央企业智能算力资源是我国算力网络的重要组成部分,下一步将适度超前建设一批智能算力中心,强化人工智能算力供给;同时构建更完善的网络安全保障体系,提升数据安全治理能力,筑牢数字化的经济安全屏障。据中国IDC圈不完全统计(2024年11月8日新闻信息),目前不同建设阶段的智算中心项目已超过500个,其中投产运营的项目160个,开工在建项目超过200个。工信部《算力基础设施高水平质量的发展行动计划》显示,2023年我国算力规模达到220EFLOPS,其中智能算力占25%,目标到2025年,算力规模超过300EFLOPS,智能算力占比达到35%。截至2024年6月,全国在用算力中心机架总规模超过830万标准机架,算力总规模达246EFLOPS。

  未来随着国产芯片能力、大模型能力的提升、AI应用的发展,国内算力基础设施需求预测将持续被拉动。此前国内AI发展掣肘于海外AI芯片禁运和国产AI芯片能力不够,随着国内自研AI芯片供给能力的逐步提升,国内算力基础设施建设蓄势待发。在海外AI芯片主导的AI算力产业链中,AI芯片、服务器、交换机等大价值量环节基本由海外企业主导,而国产算力产业链自身基本能实现闭环,包括AI芯片、服务器、交换机、光模块、液冷、连接器/线束、PCB等各环节在内的国内公司都将集中受益。国产算力建设带来的增量已经在部分厂商在业绩端逐步体现,并且后续预期乐观。

  AI服务器市场高增。IDC多个方面数据显示,2023全年中国加速服务器市场规模达到94亿美元,同比增长104%,从行业角度看,互联网依然是最大的采购行业,占整体加速服务器市场近60%的份额,此外金融、电信、交通和医疗健康等多数行业均有超过一倍以上的增长。

  AI服务器占比提升和国产化率提升,国内服务器厂商竞争格局或存变数。此前服务器竞争格局中,浪潮、新华三等厂商份额较高。2022年中国服务器市场占有率来看,浪潮、新华三、超聚变、宁畅、中兴位列前五,份额分别为28%、17%、10%、6%、5%。2022年我国AI服务器市场占有率来看,浪潮、新华三、宁畅位居前三,份额分别为47%、11%、9%。随着国产AI芯片占比的提升,AI服务器供应商格局或存在变化。当前昇腾在国产GPU中性能较为领先,国内深度参与华为昇腾算力服务器供应的厂商有望更为受益,具体可参考中国电信、中国移动等中标候选人情况。未来随着国内其他厂商GPU新产品的推出以及推理等场景的丰富,国内GPU生态也有望更为丰富,进一步有几率存在新的变化。

  2023年国内交换机市场规模小幅下滑,2024年在AI拉动下,高速交换机放量,2024H1恢复增长。据IDC数据,2023年中国交换机市场规模约57.82亿美元,同比下降4.44%。2024H1中国交换机市场规模为25.84亿美元,同比增长3.12%。

  2023年,由于英伟达、华为等GPU卡的供不应求,国内互联网厂商、电信运营商加大了GPU的采购力度,而网络设备采购相对滞后,因此国内数通交换机市场规模出现下滑。2023年中国数通交换机市场收入为33.96亿美元,同比下降3.68%,占比约48.66%。随着下游客户训练集群的陆续搭建,也带动网络设备采购,2024H1中国数通交换机市场规模18.14亿美元,同比增长16.78%,份额占比达58.16%。

  此外,2020年以来,200G/400G交换机出货占比提升,预计高速交换机比例有望持续提升。2023年中国200G/400G交换机出货占比为8.0%,2024H1占比提升至16.7%。随着2023年来博通TH5交换芯片的规模出货,预计2024下半年800G交换机将开始放量。

  2022年开始,北美传统云计算市场的光模块慢慢的开始向800G速率升级,2024年800G光模块的出货量预计大幅度增长,1.6T光模块有望在2024年下半年小批量出货并有望在2025年大幅度增长。国内光模块最新代际发展来看稍晚于海外,2024年预计400G需求大幅度增长,部分头部CSP采购800G产品。随着国内AI服务器发货增长,预计也将带动相关光模块环节放量。

  AI发展,GPU性能不断的提高,相关数据中心连接系统架构也向高速升级,从10Gbps-40Gbps向56Gbps、112Gbps、224Gbps等持续迭代升级,拉动相关高速连接器及配套高速铜缆等需求。当前海外已发展到224Gbps的数据传输速率,安费诺、Molex、TI等全球头部厂商推出了相对完整的224G连接系统解决方案。国内由于整体网络侧部署升级略晚于海外,同样连接系统升级也会略晚于海外。当前国内厂商产品仍以56Gbps为主,在部分产品领域实现112Gbps、224Gbps产品突破。

  液冷是趋势相对已经明确,当前主流为冷板式液冷方案。预计液冷2024年将进入规模部署阶段,并且我们大家都认为随着规模应用带来的方案成熟度的验证以及成本端的下降,叠加PUE监督管理要求的实质性落地,液冷有望进一步向通用服务器市场进行渗透。短中期来看,冷板式液冷方案是主流,通过对于AI服务器出货量、通用服务器出货量、单KW成本造价、液冷渗透率等假设,我们匡算整体规模有望达到200亿元。而随着AI的发展,带动服务器的量有望进一步显著提升,行业规模有望进一步打开。

  从产业链角度,冷板式液冷大致上可以分为在服务器内部的冷板、管路、快接等部件,以及进行冷量分配的CDU、manifold等,以及对于散热做补充的风冷部分。服务器内部的环节,主要由服务器厂商进行采购,部分芯片厂商在供应链环节具备一定话语权。CDU、Manifold相关的冷量分配系统,主要由互联网厂商、运营商、数据中心厂商或集成商、模块化设备提供商等下游客户进行采购。不同厂商参与的环节不同,整体的业务可达空间也存在差异。

  AI热点应用及变现能力没有到达预期可能会引起AI算力投资快速回落,进而导致算力板块利润率、业绩预期明显下修;红利资产在估值修复后,可能因业绩增速下降、预期股息率下降或者筹码结构交易因素等导致估值、股价回落;国际环境变化对供应链的安全和稳定产生一定的影响,对相关公司向海外拓展的进度产生一定的影响;AI行业发展没有到达预期,影响云计算产业链相关公司的需求;低空经济行业发展进度没有到达预期;5G-A基站建设规模低于预期;低轨卫星星座建设成本居高不下,商业化落地进程受阻;市场之间的竞争加剧,导致毛利率快速下滑;汇率波动影响外向型企业的汇兑收益与毛利率,包括ICT设备、光模块/光器件等板块的企业;数字化的经济和数字中国建设发展没有到达预期等;电信运营商的云计算业务发展没有到达预期;运营商资本开支没有到达预期;云厂商资本开支没有到达预期;通信模组、智能控制器行业需求没有到达预期等。

  证券研究报告名称:《通信行业2025年投资策略报告:通信视角下的新质生产力:科技自强,先进发展》

  展望2025年,我们大家都认为算力领域投资分为海外景气度投资以及国内自主可控两大类:

  海外景气度投资:1)估值波动,AI算力全球估值体系参照英伟达,参照台积电Cowos扩产节奏,25年算力产业链确定性较强,看好算力产业链;2)围绕增量变化及新技术投资,25年最重要的是英伟达NVL36、72机柜开始出货,以及为了应对更大模型参数量训练,单机柜中AI芯片互联数量将持续提升,其中铜连接、液冷、电源变化最大,CPO及MPO等新技术也将开始在2025年不断走向成熟;3)围绕份额变化投资,随着产业链的深入,光模块、PCB等环节的供应商明年会有份额的变化。

  国内自主可控:根据2023年底美国商务部和安全局(BIS)发布的一揽子规则,目前国内所能获取的AI芯片性能上限基本就在H20这一级别,考虑到H20的FP 16算力只有B200芯片的6.7%,其性能并不足以支撑国内向更大参数量模型去探索,因此国内AI芯片发展紧迫性凸显。我们大家都认为,未来国内AI芯片领军企业,将同时在出货量、生态和产品力上具有领先性。同时,考虑到国产芯片制程、工艺以及明年国内互联网客户开始推进机柜方案,建议重视国产电源、液冷等相关标的。

  MPO(Multi-fiber Push-On)是一种高密度光纤连接器,大范围的应用于光通信系统中。其设计允许在一次连接中同时传输多路光信号,极大地提高了光纤连接的密度和效率。MPO连接器通常用于数据中心、服务器和其他高性能计算环境,以满足日渐增长的数据传输需求。

  MPO技术起源于20世纪90年代,最初用于电信行业的高密度光纤连接。随着数据中心和云计算的加快速度进行发展,MPO连接器慢慢的变成为光通信领域的标准配置。近年来,随着大模型对大型算力集群的需求,以及800G和1.6T光模块的普及,MPO技术的应用场景范围和市场需求进一步扩大。

  其主要功能包括:1)高密度连接:支持多达12根光纤的并行连接,明显提高连接密度;2)快速插拔:设计便于快速安装和拆卸,适合频繁更换和维护的场景;3)低损耗:优化的光学设计确保低插入损耗和高回波损耗,保证信号质量;4)兼容性:可与多种光纤类型和标准兼容,适应不一样的应用需求。

  使用场景:1)数据中心内部互联:用于连接交换机与服务器,提供高带宽的光纤连接;2)服务器集群互联:在高密度服务器环境中,MPO连接器用于实现服务器之间的快速、高效连接;3存储网络:用于连接存储设备与服务器,支持大数据传输和高性能存储操作。

  在高性能计算环境中,MPO连接器通常用于光模块与光纤之间的连接。例如在一个CPO中,在大多数情况下要多个MPO连接器来实现高密度的光纤连接。如一个800G光模块可能使用两个MPO连接器来支持16条光纤的并行传输。GPU常常要通过高速光纤网络与其他计算节点连接。MPO连接器用于实现GPU与交换机之间的高带宽连接。

  MPO连接器市场主要由几家大型光通信设施制造商主导,包括Finisar、博通、Molex等。这一些企业凭借其技术优势和市场占有率,在市场上占据领头羊。此外,随技术的慢慢的提升,慢慢的变多的新兴企业也在进入这一领域,市场之间的竞争日益激烈。

  MPO技术凭借其高密度、低损耗和快速插拔的优势,在光通信领域占据了主体地位。随着如英伟达计算集群中服务器数量、单台服务器中的GPU卡数量的快速增加,在未来的超大规模计算集群中,对于MPO互联的需求量一定会快速提升,有望带动MPO整体市场规模的提高。

  交换网络中常见的连接解决方案包括光模块+光纤、有源光缆(AOC)和直连电缆(DAC)。DAC能更加进一步分为有源DAC和无源DAC:

  有源光缆由两端的两个模块组成,由在中间的一段光纤连接。光学模块和光缆是集成的,两端的光学模块都需要激光组件。与其他电缆相比,AOC具有许多优点。它提供高传输速率、远距离功能、低功耗、重量轻且易于使用。这些好处是通过采用光传输而实现的,它克服了无源光纤电缆或其他电缆类型的局限性。AOC有源光缆设计轻质紧凑,信号信噪比表现好,抗干扰能力强,是数据中心、HPC计算和InfiniBand交换机互连的理想选择。

  DAC(直连电缆)电缆是一种网络电缆,用于连接不同的网络设备(例如交换机、路由器与服务器)以形成网络。它也称为双轴电缆,由两根绞合在一起形成电缆的导线Gbps和100Gbps的速度传输数据,具体取决于所连接的网络设备。此外,DAC电缆可以制造为各种长度,例如1m、3m、5m、7m和10m,以适应不一样的网络设置。有源DAC电缆不但可以转换信号,还可以放大信号,它们不易随着距离的推移而丢失信号,很适合较长的电缆长度。无源DAC电缆是将数字信号转换为模拟信号的简单电缆。这些电缆不需要外部电源,只是通话的“可靠通道”。DAC不包含光电转换器模块,电缆端由简单的电缆连接器组成。这使得它们具备极高的成本效益,由于其经济实惠和高速性能,无源DAC已成为实现短距离传输的优秀解决方案。

  通信网络中常见的连接解决方案包括光通信和高速电通信,无源DAC作为电通信的主要解决方案其不包含光电转换器模块,具备极高的成本效益和运营可靠性,成为实现短距离传输的优秀解决方案。目前的铜缆已经实现224G以太网Serdes高速通信技术升级,短距离传输性价比突出,在AI服务器高集成度的趋势下,我们大家都认为铜连接将成为AI服务器的重要组成。

  GB200NVL72服务器采用大量的铜连接作为机柜内部通讯方式。GB200NVL72机柜中不同的计算托盘间采用电缆进行互联,内部使用电缆长度累计接近2英里,共有5000多条独立电缆。计算托盘内同样采用大量铜连接作为服务器内的GPU芯片互联。

  性价比优势:在短距离内,光模块价格明显高于铜缆以及连接器,铜连接方案的成本相比来说较低。并且其具有高兼容度并不是特别需要额外的转换设备。

  可靠性优势:可靠性用平均无故障时间(MTBF)来衡量。无源铜缆的MTBF大约为50000万小时――通常比光缆的行业标准高出一个数量级。铜缆为可靠的数据传输至关重要的企业数据中心提供了一大好处:避免停运时间。随着数据中心中GPU规模数量的显著提升,通信方式的可靠性成为重要的考量因素。

  散热及低功耗优势:DAC消耗0.1W,相比与有源光缆AOC和有源电缆AEC来说几乎能忽略不计,相对来说散热更容易。并且铜连接整体设计灵活性更好,机柜扩展维护相对来说更加简单。

  GB200NVL72服务器中包含三种铜缆:三种柜内线机柜以内的定义为柜内线)以及柜外线(机柜间的互联定义为柜外线)。

  计算托盘间的铜缆连接:单张B200对应1条NVLink5.0连接,每条传输双向1.8TB/s带宽,Serdes对应的规格为224Gbps通信协议,铜缆也采用难度更高的224Gbps产品,即单张B200上面通常连接72个差分对(72根线TB/s的带宽。NVL72单个Rack有72张B200,能得出需要5184根线),加上eprom线米,考虑背板线AWG型号的线元/米计算,则单个NVL72机柜中背板线元/台。

  交换机内部互联:NVSwitch芯片全部通信带宽连接背板连接器,总共需要576根overpass线.4元/台。在NVL36解决方案中,NVSwitch芯片一方面连接背板连接器,一方面连前端I/O端口,其中连接背板连接器的OverPass1线米;连接前端I/O端口的OverPass2线根(带宽前后端一致),每根0.3米,9个交换托盘合计也为1555.2米,单价按照7元/米计算,则合计10886.4元/台。

  计算托盘内部:由PCIE线实现CPU与I/O端口之间的互联,单个tray预计0.4*16*8*4=205米,NVL72合计18个tray盘,则合计为205*18=3690米。单价按照2.5元/米计算,则价值量为9225元。

  柜内线高速铜缆市场规模测算:对于中国厂商来说,交付能力、产品质量均处于领头羊,份额仍在不断的提高。我们考虑NVL72三部分柜内线,其价值量保守估计约为39916.8+10886.4+9225=60028.2元/台。考虑到明年NVL36、NVL72 机柜整体出货量(等效NVL72预计4万台以及NVL36两种版本合计约3万台),仅柜内线亿+。目前柜外线大批量出货,高速铜线增量明显。并且,明年AMD、谷歌TPU以及其它大厂也纷纷采用机柜方案,其所用高速铜线规模也较大。

  根据线束中国信息,目前安费诺是GB200 NVL72服务器铜连接的供应商,其产品能支持224G高速通信的批量交付,受限于产能和产品稳定性考量,部分国内企业或成为安费诺供应商从而受益于英伟达NVL72服务器铜连接供应体系。

  单卡功耗增加以及更多的卡集中在一个机柜,散热方式从风冷升级为液冷。根据冷却介质不同,数据中心冷却方式分为风冷和液冷,而液冷方案可分为冷板式、喷淋式和浸没式三种,当前伴随单台服务器功率的不断的提高,液冷服务器渗透率有望快速提升。数据中心作为持续的产热大户,高效且稳定的散热系统是重要的配套设施,根据冷却介质差异可划分为风冷和液冷两种方案。与风冷方案利用空气作为冷却介质不同,液冷方案以液体(导热油或氟化物)作为冷媒,利用液体流动将数据中心ICT设备内部元器件产生的热量传递到设备。相比传统风冷,液冷技术具备更高的散热效率、低能耗、低TCO、低噪声和低占地面积等显著优势,是单机柜功耗持续增长背景下解决散热压力、应对节能挑战的重要途径。

  功耗上限/PUE范围/经济效益三重优势加持下,液冷系统加速渗透具备较强确定性:

  1)AIGC推动功耗快速提升,单芯片功耗实现数倍式飞跃。随着内核数量的增加,CPU性能与功率实现了同步增长,带动CPU单芯片功耗同步提升,而GPU由数百个内核组成,可同时处理数千个线程,功耗较CPU显著更高,英伟达GB200由两个1200W GPU与300W CPU构成,总功耗高达2.7KW,单芯片功耗的翻倍式提升使得其对散热的要求远超于传统风冷能力范畴(实际上部分冷却板式液冷系统也仅能满足单芯片功耗270-500W范畴)。

  2)单机柜功率密度提升,已突破传统风冷散热上限。单台通用服务器通常仅配置2颗CPU,单台服务器功耗通常不到1KW,而根据英伟达提供的数据,NVL 72服务器配置了36颗GB200 GPU,受新增多颗高功耗GPU配置影响,NVL 72服务器的系统功耗可达120 KW,较通用服务器大幅度的提高。当前我国主流风冷机柜功率范围大致在7-10 KW范围内,则需要多台传统风冷机柜才可容纳一台NVL 72服务器,机柜空间冗余较多,且机柜间排布需有一定间隔以完成散热,互联成本增加且机房使用效率将大幅度降低。因此,伴随高功耗AI服务器的上架,为在满足功耗要求的基础上提高机房的空间利用率,高功率机柜或将同步增长。

  3)政策严控PUE,更高效的散热方案是关键。PUE为数据中心总耗电量与IT设备耗电量的比值,其值越接近1,说明数据中心对于电能的利用越有效,是表征数据中心能耗的核心指标,而空调系统作为除IT设备之外的第二大能耗方向,也是降低PUE的关键。随着碳中和碳达峰战略的深入推进,针对数据中心这一用电大户,国家层面以及地方政府均出台了系列政策对PUE进行严控。新建项目方面,普遍要求新建的大型及以上数据中心PUE不超过1.3,对国家枢纽节点的PUE要求更为严苛,“东数”节点要求控制在1.25以内、“西算”节点要求控制在1.2以下;存量项目方面,要求逐步对PUE1.5的数据中心做改造。据统计,传统风冷方案的数据中心PUE一般在1.5左右,采用液冷的数据中心PUE能够更好的降低至1.2以下,从当前真实的情况来看,实地运行的数据中心PUE较政策要求仍有很大的差距,若想严格达成政策目标,液冷迫在眉睫。

  4)全生命周期角度看,固定IT需求下液冷系统具备较强运营优势。数据中心全生命周期成本(TCO)包含 CAPEX 和 OPEX 两部分,具体包括了数据中心配套设备购置成本(土建配电等)与建成后的运营支出(利润维度主要是电费与折旧)。总体看液冷相对风冷系统具备较高的建造成本,以液冷造价0.95-1.05 万元/KW(含室外冷源),风冷造价0.35 万元/KW测算,若NVL 72 单机柜功耗在120W左右,则液冷系统造成成本为114-126万元(约16万美元),较风冷系统贵78万元。但从运营角度看,考虑到液冷系统PUE远低于风冷系统,则对应固定功率的IT设备,液冷数据中心的整体耗电量远低于风冷系统,且该耗电量节约带来的经营成本减少将伴随数据中心功耗规模的扩大而快速扩大。从经济效益角度看,大规模高功耗数据中心使用液冷系统将具备较高性价比。

  从供电过程本质上,电源本身不产生任何能量,只是作为电网中电能的传导,其核心是实现整流与变压两项功能。整流即是实现不同形态电能的转换(直流变交流、交流变直流),变压即是实现电压的升高或降低。此外,针对于特定场景,电源会添加额外功能,如服务器电源就需要在散热、监控、电流调节上做额外的功能追加从用途功能分类上,电源可分为嵌入式电源与非嵌入式电源,嵌入式电源通常被直接安装在设备内部或特定空间内,又可分为普通开关电源与模块电源两类,其中模块电源往往是被镶嵌在电路板上。

  AI需求将带动能耗进入迅速增加阶段。耗电量能够准确的通过AI服务器的预计销售量及其额定功率进行预测,考虑到AI服务器的快速放量,预计2026年AI带来的电力消耗有望达到2023年的10倍。当前算力需求主要由模型训练所贡献,后续伴随AI应用快速落地,算力与算力能耗需求量开始上涨仍有进一步提速空间。

  核心看,伴随服务器(尤其是AI服务器)功耗总额的快速提升,在OCP ORV3标准限制下服务器电源一定要通过提升功率密度并维持高能源转化率(钛金96%以上)以满足服务器运转需要。更好的材料、更优的拓扑、更多的集成是功率密度提升的主要途径,因此电源行业不仅享受了总功耗提升带来的需求快速上行,同时也因为材料变更、散热需求加强等因素带来了单瓦特价格提升现象,并助力行业空间快速扩容。此外,考虑到近期大陆区域外流片难度加大,伴随大陆区域流片芯片占比增加,电源功耗需求有望呈现逐步提升趋势。

  从实际配置角度看,服务器整机品类繁多,不同服务器芯片配置方案不同。以DGX系列为例,DGX A100整机功耗上限6.5KW,DGX H100 整机功耗上限 10.2KW,NVL 72 整机功耗120KW。仅就AI服务器电源而言,可通过各类芯片的全球出货量预估出其每年市场空间的最小值(冗余配置带来不确定性),即24/25年AI服务器电源可实现124/296亿元市场增量,相较过去市场规模实现超高速增长。

  此外,伴随单机柜容纳GPU数量逐渐增多,机柜功耗总额快速提升(NVL 72总功耗已达120KW)。机柜类服务器占比的提升在三个层面对供电系统提出更高要求:1)更高性能的供电总线)更高压的交流与直流电(如DC/DC模块电压输入可达800V,从而大幅度减少发热损耗);3)更低损耗的内部供电电路。从而使得电源获得了额外的溢价能力,市场空间更广阔。

  GPU具备图形渲染和并行计算两大核心功能。GPU具有数量众多的运算单元,适合计算密集、易于并行的程序,一般作为协处理器负责图形渲染和并行计算。对于国内来说,民用图形渲染领域买单的人是游戏爱好者,GPU公司需要跟大型游戏厂商进行适配合作,背后的生态支持需要大量工作。对于智算领域,生态要求极高,需要基础算子及应用程序算法的持续积累和优化,英伟达的CUDA具备绝对的生态优势,其次互联能力要求也极高,并且由于海外对国内使用先进制程有诸多限制,也限制了国内AI芯片的迭代。

  出货量至关重要:国产AI训练芯片研发周期2年, 人员500人以上, 则需要人员费用500*80万*2=8亿, 7nm流片费用1500万美金, EDA、 IP数千万美元, 则一颗芯片整体投入约10亿。按照训练芯片单价7万, 毛利率50%测算, 则需要出货至少达到3万片才能分摊研发成本。

  构建自主生态:兼容英伟达CUDA在短期能减轻开发和迁移难度;长久来看,国产GPU如果完全依赖CUDA生态,硬件迭代将受英伟达的开发进程束缚。对于很多互联网大公司来说,自主生态的路会更长。

  风险提示:北美经济衰退预期逐步增强,宏观环境存在比较大的不确定性,国际环境变化影响供应链及海外拓展;芯片紧缺可能会影响相关公司的正常生产和交付,公司出货没有到达预期;信息化和数字化方面的需求和资本开支没有到达预期;市场之间的竞争加剧,导致毛利率快速下滑;主要原材料价格持续上涨,导致毛利率没有到达预期;汇率波动影响外向型企业的汇兑收益与毛利率;大模型算法更新迭代效果没有到达预期,可能会影响大模型演进及拓展,进而会影响其商业化落地等;汽车与工业智能化进展没有到达预期等。

  证券研究报告名称:《人工智能2025年投资策略报告:算力为基,自主可控大势所趋,Agent及B端应用崛起》

  本订阅号(微信号:中信建投证券研究)为中信建投证券股份有限公司(下称“中信建投”)研究发展部依法设立、独立运营的唯一官方订阅号。

  本订阅号所载内容仅面向符合《证券期货投资的人适当性管理办法》规定的机构类专业投资者。中信建投不因任何订阅或接收本订阅号内容的行为而将订阅人视为中信建投的客户。

  本订阅号不是中信建投研究报告的发布平台,所载内容均来自于中信建投已正式对外发布的研究报告或对报告进行的跟踪与解读,订阅者若使用所载资料,有一定的概率会因缺乏对完整报告的了解而对其中关键假设、评级、目标价等内容产生误解。提请订阅者参阅中信建投已发布的完整证券研究报告,仔细阅读其所附各项声明、信息公开披露事项及风险提示,关注相关的分析、预测能够成立的关键假设条件,关注投资评级和证券目标价格的预测时间周期,并准确理解投资评级的含义。

  中信建投对本订阅号所载资料的准确性、可靠性、时效性及完整性不作任何明示或暗示的保证。本订阅号中资料、意见等仅代表来源证券研究报告发布当日的判断,相关研究观点可依据中信建投后续发布的证券研究报告在不发布通知的情形下作出更改。中信建投的销售人员、交易人员以及其他专业技术人员可能会依据不同假设和标准、采用不一样的分析方法而口头或书面发表与本订阅号中资料意见不一致的市场评论和/或观点。

  本订阅号发布的内容并非投资决策服务,在任何情形下都不构成对接收本订阅号内容受众的任何投资建议。订阅者应当充分了解各类投资风险,依据自己情况自主做出投资决策并自行承担投资风险。订阅者根据本订阅号内容做出的任何决策与中信建投或相关作者无关。