欢迎访问算力交易所服务中国,中国算力最强大实时交易资讯平台!
行业动态 省市动态

国产算力行业深度分析

2024-04-11 73831

当前,我国算力需求大、国产化率极低,替代空间广阔。根据工信部发言,2024-2025年我国算力规模规划增长将超100EFLOPS,对应AI算力芯片市场规模超2600亿元,其中智能算力将成为主要增量部分。赛道空间巨大但国产化率极低,目前GPU国产化率不足10%,互联网等商用AI芯片几乎完全依赖进口。


另一方面,大国AI竞争背景下,美国出口管制进一步升级,国产芯片替代的紧迫性提升,算力国产化大势所趋。在此形势下,国产算力厂商有望迎历史性机遇,加速进入发展新篇章。


以下我们将围绕国产算力的角度,对国内算力产业发展的现况及趋势进行分析。当前我国算力行业发展现况如何?有哪些驱动因素?在美国限令持续升级的情况下,国产替代有何进展?算力产业链整体情况如何?我国算力国产替代背景下,凸显出来哪些产业机遇?相应的企业有哪些?以及算力发展趋势如何?市场空间有多大?针对以上问题,我们将逐一解析,以帮助大家加深对国产算力认知,更好地了解相关问题。


01

行业概况


1、算力是智能世界的基础,基础设施从云向算泛在演进


智能世界三要素:数据、算力、算法是智能世界三要素,其中算力平台是核心基础。


算力:即计算能力。算力是通过对信息数据进行处理,实现目标结果输出的计算能力。


算力两大类:通用算力、HPC(高性能计算,High-performance computing)算力。其中通用算力计算量小,用于常规应用。HPC算力是一个计算机集群系统,通过各种互联技术将多个计算机系统连接在一起,利用所有被连接系统的综合计算能力来处理大型计算问题。


算力基础设施从云向算泛在演进,其位置的分布从中心向边缘和端侧泛在延伸,将出现云、边、端三级算力架构。

2、算力是未来经济发展基石,对经济发展影响深远


算力是未来经济发展基石。算力对国家经济发展影响深远,据IDC《2021-2022全球计算力指数评估报告》数据,平均算力每提高1点,数字经济和GDP将分别增长3.5‰和1.8‰。算力作为数字经济时代的关键生产力要素,已经成为推动数字经济发展的核心支撑力和驱动力。当一个国家的计算力指数达到40分/60分以上时,对GDP增长的推动力将提高1.5/3倍。从下游细分来看,人工智能计算和边缘计算成为市场增长重要力量,将引领算力进入新一轮快速增长通道。


3、算力全面国产化时代已提前到来,从宏观视角看主要体现在两个方面


算力全面国产化时代已提前到来。算力的基本载体是服务器,服务器的核心部件为CPU和类GPU等计算芯片,经过多年的技术积累和市场打磨,我国国产CPU已从“可用”进入“好用”阶段,以运营商和金融为代表的大客户正有序进行信创服务器的集采和规模化应用;随着新一轮AI算力升级的浪潮兴起以及国际局势的迅速变化,AI算力芯片的国产化时点已提前到来。

从宏观视角来看,数字经济下的算力主要体现在两个方面:


一方面,数字产业化进程中,需要对相关硬件进行投资,建立数据处理、分析等数据中心,来生产能够实现海量数据计算的算力服务。


另一方面,产业数字化进程中,需要满足各实体产业生产过程中的算力需求。实体企业生产部门的算力需求,既包含了对硬件层面的需求,例如通过通用服务器、AI加速服务器或存储设备等硬件设施,由实体企业自行搭建数据中心将算力引入生产过程等;又包含了对服务层面的需求,例如通过租赁公有云、算法服务、数据服务等算力服务实现生产数据的大规模存储与计算等功能。


4、我国算力市场空间大,国产化率有望快速提升


政策面,我国陆续出台《全国一体化大数据中心协同创新体系算力枢纽实施方案》、《算力基础设施高质量发展行动计划》、《“十四五”数字经济发展规划》等一系列文件推动算力基础设施建设。此外,国家推动多地智算中心建设,由东向西逐步扩展。当前我国超过30个城市正在建设或提出建设智算中心,据科技部出台政策要求,“混合部署的公共算力平台中,自主研发芯片所提供的算力标称值占比不低于60%,并优先使用国产开发框架,使用率不低于60%”,国产AI芯片渗透率有望快速提升。据IDC数据我国智能算力未来将快速增长,2021年到2026年期间中国智能算力规模年复合增长率达52.3%。


02

驱动因素


1、ChatGPT掀起AI大模型热潮,拉升算力需求


ChatGPT引起AI大模型热潮,AI算力需求高增。2022年11月30日,OpenAI发布了ChatGPT聊天机器人程序,2023年3月,发布新一代语言模型GPT-4,自此AI进入“大模型时代”。与此同时,国内大模型也陆续正式上线。8月31日,百度、字节、商汤、中科院旗下紫东太初、百川智能、智谱华章等8家企业/机构的大模型,位列首批通过《生成式人工智能服务管理暂行办法》备案的名单,正式上线开始面向公众提供服务。据百度官方平台数据显示,文心一言开放首日下载量破百万,回答了3342万个问题。

人工智能大模型训练数据量巨大,对算力尤其是智能算力需求庞大,且将在未来持续高增长,驱动全社会算力产业的快速发展。以GPT大模型为例,GPT-3模型参数约为1746亿个,训练一次需要的总算力为3640PF-days,而新一代GPT-4模型参数量将达到1.8万亿个,算力需求提高68倍。ChatGPT的轰动引发全球人工智能大模型训练及应用的浪潮,驱动算力需求进入爆炸式增长阶段。尤其是针对人工智能的智能算力,更成为了算力产业未来发展的重要方向。


2、MR、车载等数字经济新型应用场景带来新的算力需求


MR的推出更带来对低延时网络传输和底层算力技术升级的需求。虚拟世界需要强大的图像实时渲染能力、计算和存储海量数据资源,头显交互设备的出现将进一步增加对云计算和边缘计算的应用需求。云计算能将终端渲染逐步迁移至云端,基于规模效应摊低运算成本,提升服务器使用效率,提升虚拟世界的可进入性。而边缘计算则更能满足实时数据分析需求、缓解中心云的计算负载。


汽车智能化需求持续升级带来数据流量的急剧飙升。随着自动驾驶等级提升,车载信息娱乐系统、长续航电池及5G网络的引入,车辆要面对的计算量越来越大,网络架构升级、本地实时处理能力、“大容量缓存和存储”规格将成为硬需求。

3、国际环境:美国加强限制规则,海外高性能芯片进口受限,将反向驱动我国产业发展


从“性能指标”到“性能密度指标”,英伟达高端芯片进口受限范围扩大。2023年10月17日,美国商务部出台出口管制清单的ECNN3A090和4A090要求,以进一步限制高性能AI芯片的出口,同时将13家中国公司列入实体清单。修改后的出国管制设计产品包括但不限于:英伟达A100、A800、H100、H800、L40、L40S以及RTX4090产品。实际上,任何集成了一个或多个及以上的芯片的系统,包括但不限于英伟达DGX、HGX系统,都在新规涵盖范围之内。


此前,2022年8月26日,美国政府要求英伟达停止向中国(包括中国香港)出口两款用于人工智能发展的高端计算芯片,涉及英伟达A100和H100两款芯片,以及未来推出峰值性能等同或超过A100的其他芯片。同时,英伟达应用这些高性能芯片的系统级产品也均在新的管制范围内。2022年9月1日,英伟达发布声明称美国政府允许英伟达在2023年9月1日前,通过公司的香港工厂履行A100和H100的订单和物流运输,但售卖给中国的终端客户仍需要受美国政府批准。


限制强度加大,新增多款芯片受到新规限制。根据英伟达主要芯片规格,可以计算每种芯片的性能密度指标。在新规发布之前,超过旧规性能指标限制的芯片仅为英伟达A100,但当加入性能密度指标后,新规不仅限制了厂商出略低于性能标准的芯片以规避限制情况,同时针对数据中心芯片与非数据中心芯片进行了不同的限制约定,使更多的英伟达芯片受到禁令限制。

4、国内政策:我国国家和地方政策持续加码,国产算力强势崛起


政策持续加码,助力国产算力强势崛起:在拜登政府计划阻止英伟达等出口高性能AI芯片之后,我国政策力度明显加强,国家层面,例如《算力基础设施高质量发展行动计划》,省市层面,例如深圳市等地,可以明显看到国家对于国产算力的的支持力度,同样也侧面反映AI算力的重要性。


国家层面:2023年10月8日,工业和信息化部、中央网络安全和信息化委员会办公室、教育部、国家卫生健康委员会、中国人民银行、国务院国有资产监督管理委员会发布《算力基础设施高质量发展行动计划》的通知,自计算力、运载力、存储力、应用赋能四方面提出建设目标。

地方层面:2023年12月5日,深圳市工业和信息化局关于印发《深圳市算力基础设施高质量发展行动计划(2024-2025)》的通知。其中要求,到2025年,全市基本形成空间布局科学合理,规模体量与极速先锋城市建设需求相匹配,计算力、运载力、存储力及应用赋能等方面与数字经济高质量发展相适应,绿色低碳和自主可控水平显著提升的先进算力基础设施布局,构建通用、智能、超算和边缘计算协同发展的多元算力供给体系。

此外,除算力建设外,算网一体化政策同样频出:2023年12月15日,国家发展改革委、国家数据局、中央网信办、工业和信息化部、国家能源局发布《关于深入实施“东数西算”工程加快构建全国一体化算力网的实施意见》,其中重点强调算力是数字经济时代的新型生产力。算力网是支撑数字经济高质量发展的关键基础设施,可通过网络连接多源异构、海量泛在算力,实现资源高效调度、设施绿色低碳、算力灵活供给、服务智能随需。在国家政策的强力支持下,我国算力产业有望呈现爆发式增长。

03

国产替代


1、美禁令持续升级,倒逼国产化提速


美国AI禁令再升级,GPU成管制焦点,倒逼国产化提速。美国商务部工业和安全局(BIS)于2023年10月17日发布新规,旨在进一步遏制中国等国家的芯片与人工智能发展,主要包括收紧高算力芯片出口、扩大半导体制造管控、在实体清单中增加更多中国GPU企业。具体内容包括:


芯片出口:使用三个标准来规定禁止向中国出口的芯片,包括芯片的总算力(TPP)、性能密度(PD)以及芯片的设计或销售是否用于数据中心。该禁令使得A800、H800等曾经的中国特供版GPU无法再出口至中国,甚至影响到消费类GPU:RTX4090。


制造管控:扩大对半导体制造设备的管制如DUV光刻机,以及扩大代工厂审查芯片设计文件的地域限制等。


实体清单:在“实体清单”上新增13家中国企业,主要包括壁仞科技、摩尔线程等GPU公司,为这些公司制造芯片需要BIS的许可。


美国连续多年出台相关法规禁令来限制中国大陆半导体发展,包括定点打击、本国补贴、出口管控等各类措施,此次禁令便是对2022年8月芯片禁令的升级,英伟达A800、H800均为当时禁令后推出的中国特供版GPU,降低了算力和互联带宽,但如今亦被限制。

英伟达中国市场特供版芯片性能进一步阉割,国产AI发展受阻。针对美国新一波禁令限制,英伟达试图开发符合美国政府政策且不需要许可证的新数据中心产品,将推出H20、L20等型号。根据腾讯科技新闻,H20目前公布的参数规格,其单卡算力为0.148P(FP16),大约为A100的50%/H100的15%,配6颗HBM3e,96G容量,NVLink提升到900G/s。单卡算力的大幅下降,对国产AI厂商而言,相较A/H800,需采购更多数量的H20以满足模型训练要求。此外,H20单卡算力较低,可能难以满足千亿参数级LLM模型训练,将更适用于垂类模型的训练及推理。单卡性能的不足以及资本开支的上升,将很可能倒逼国产AI下游厂商加速国产替代。


受禁令影响,英伟达2023年四季度中国大陆收入环比大幅下滑。受出口管制影响,英伟达在中国市场收入逐渐萎缩,23年三季度英伟达在中国大陆收入达40.3亿美元,环比增长47%,四季度仅为19.5亿美元,环比下滑52%。四季度中国大陆占英伟达总营收8.8%,创历史新低,此外官方预期下季度占比将保持这一区间。

2、Chiplet技术取得突破性进展,在芯片国产化道路上具有降本提效作用

目前芯片产业链上,我国相关技术积累与海外对比仍处于滞后状态,在芯片国产化浪潮下,芯片技术有望取得突破性进展,从而助推国内打破海外的技术封锁。国产化市场增量空间大。

Chiplet技术是一种芯片异构集成技术,能够显著提高芯片良率和性能,降低成本和芯片制造中稀缺资源的占用率。目前国内有三家公司宣布掌握Chiplet技术,分别是通富微电、长电科技华天科技。Chiplet的技术底座之一是芯片互联协议。2022年2月,英特尔等十家巨头公司成立了芯片互联协议产业联盟UCIe联盟,致力于打造统一的芯片上下游生态链。2023年1月13日,中国计算机互连技术联盟(CCITA)发布《小芯片接口总线技术要求》,构建了符合中国芯片业实情的互联标准,既能够有效预防国际技术封锁,也为国产芯片行业从IP设计到封测的全产业链提供了价值增长点。

3、国内产业进展可观,国内大模型发展需求为国产替代增添动力

近年来国产AI芯片进展可观,本次美国芯片禁令以及国内大模型发展需求为国产替代增添新动力。目前国内领先AI芯片厂商包括华为海思、寒武纪、海光信息、壁仞科技、燧原科技、沐曦集成电路、摩尔线程、天数智芯等,部分国产旗舰级产品在算力方面已对标英伟达A100等国际领先产品,在内存与互联等方面也接近国际先进水平。据路透社,英伟达H20在某些关键领域的FP32性能表现不如华为昇腾910B产品,但在互连速率方面会比910B更具优势。

凭借优异的产品性能,国产芯片厂商逐步获下游客户认可。据中国基金报报道,百度为200台服务器订购了1600片昇腾910B。截至23年10月,华为已向百度交付了超过60%的订单;科大讯飞在2023Q3业绩说明会表示,公司已于23年初与华为昇腾启动专项攻关,华为发布的昇腾910B能力已经基本做到可对标英伟达A100。除华为昇腾外,寒武纪思元590、海光深算3号等产品也处于积极推进。在美方对华制裁压力下,H20为红线内国内能够采购的最高端芯片,国产芯片持续迭代将有望超越其性能效果,完善国产算力基础建设。

4、以华为昇腾为首的国产算力迅速填补需求空缺,重点行业国产算力替换提速

(1)NVIDIA GPU出口管控趋严,以华为昇腾为首的国产AI芯片迅速填补需求空缺

NVIDIA GPU管控趋严,以华为昇腾为首的国产AI芯片迅速填补需求空缺。随着NVIDIA GPU管控趋严,以华为昇腾为首的国产AI芯片成为国内算力基础设施建设的重要选择,快速填补NVIDIA GPU的市场需求空缺。能力侧:华为昇腾910芯片FP16算力已达320TFLOPS、INT8算力达到640TOPS,与NVIDIA A100 80GB版本旗鼓相当,并已落地千卡集群项目,且2023年9月发布的Atlas 900 SuperCluster利用华为全新星河AI智算交换机CloudEngine XH16800,可实现等效18,000张卡的超大规模无收敛集群组网,在单卡算力与组网能力方面已可以满足国内智算网络的建设需求。需求侧:客户受限于美国芯片出口管制,对于国产AI芯片的需求不断提升,华为昇腾等国产算力的占比快速提升。根据全球半导体观察及路透社消息,国内客户对于昇腾910B等国产AI芯片的需求激增,2023年昇腾910B已经获得大客户至少5,000套订单,预计将于2024年交付。

(2)全面自主可控大趋势下,重点行业国产算力替换明显提速

自主可控大趋势下,国内各行业集采的国产化替代持续推进。在全面自主可控大趋势下,以鲲鹏、海光、飞腾为代表的国产CPU服务器与以昇腾为代表的国产GPU服务器在运营商、金融、能源等重点行业侧份额持续提升。

运营商侧:通用服务器方面:2022年三大运营商PC服务器集采中,国产CPU服务器占比达37.10%,较2020年集采同比提升5.97pct,其中鲲鹏服务器占比基本保持稳定,海光服务器占比同比提升6.50pct。2024年2月,中国移动发布《2024年PC服务器产品集中采购招标公告》,预估采购规模为26.45万台,其中Arm+X86服务器采购总数为12.15万台,预计占比47.34%(去除未公布的8,000台服务器),其中Arm服务器或以鲲鹏服务器为主,X86服务器或以海光服务器为主。AI服务器方面:2023年10月,《中国电信AI算力服务器(2023-2024年)集中采购项目》中标候选人正式公示,中国电信此次集采共分为4个标包4,175台AI服务器,其中鲲鹏服务器占比达47.35%。

其他重点行业方面:金融行业侧:2023年金融行业国产服务器采购数量明显提升,2023H2采购大单频出。2023年下半年金融行业国产服务器采购速度明显加快,单笔采购数量皆为千台、万台规模,中信银行、中国农业银行单笔服务器采购额皆为40余亿,显现出金融行业国产化替代的需求较为旺盛。能源行业侧:2023年中国石化服务器采购中国产服务器占比达41.55%。2023年8月,中国石化发布《信息化基础设施项目招标公告》,采购国产CPU服务器1,500台,占总服务器采购份额的41.55%。

04

产业链分析


1、算力产业链构成


算力产业链涵盖由基础硬件、基础软件、基础设施构成的上游产业,由第三方数据中心、云计算服务、网络运营服务、IT外包服务、系统集成服务构成的中游产业,由互联网、制造业、金融、能源等各行业企业用户构成的下游产业。

算力下游各类业务场景中智能硬件、工业设备、智能汽车等多类型终端大量接入网络,对计算实时性、可靠性、吞吐能力、能耗等的要求愈发复杂,算力需求规模不断扩张的同时,呈现出明显的专用化、边缘化、智能化等特点,以通用计算为主的传统计算范式已然无法满足需求,将驱动算力供给侧不断提高对需求的适配性,构建由通用算力、智能算力、高性能算力、边缘算力等构成的多元算力供给体系。


2、国内算力产业链的三大体系


在国内,算力产业链整体属于生产制造业,经过多年发展,上下游厂商往往存在较为密切的股权/业务关系,可分为如下体系:


中科院系——以海光为核心芯片,以中科曙光及ODM为主要整机厂的x86信创服务器体系,兼容性好;


华为系——以鲲鹏+昇腾为核心芯片,以华为硬件生态合作伙伴(四川长虹、高新发展、宝德、超聚变、神州数码、烽火通信、拓维信息等)为主要整机厂的Arm信创服务器体系,自主可控程度更高;


中电子系——以飞腾为核心芯片,以中国长城为主要整机厂的Arm信创服务器体系,自主可控程度高;


整体上看,我国正在逐步完善产业链和生态,以应对日趋复杂的国际局势


3、重点环节分析


(1)服务器拆分——芯片组BOM占比最高


服务器的硬件主要包括:处理器、内存、芯片组、I/O(RAID卡、网卡、HBA卡)、硬盘、机箱、电源、风扇。


在硬件的成本构成上,CPU及芯片组、内存、外部存储是大头。以一台普通的服务器生产成本为例,CPU及芯片组大致占比50%左右,内存大致占比15%左右,外部存储大致占比10%左右,其他硬件占比25%左右。

(2)服务器市场现状:国内服务器龙头主要受益英伟达

全球AI服务器市场采购主要为全球云计算及互联网厂商,前四家海外巨头采购占比66%,其余为国内互联网厂商,其中字节跳动占比6%。伴随全球巨头大力发展自身大模型,未来其采购算力将大幅增长。

全球服务器行业格局层面,主要是ODM厂(如工业富联)及品牌商(如戴尔、HPE、联想、浪潮等),在AI服务器方面,国内浪潮信息份额较高,其次为戴尔、HPE、联想、华为、IBM等,当然在AI服务器领域不得不提行业龙头微软、AWS、DELL、HPE的ODM/OEM厂商工业富联,是全球云服务商的服务器主力供应商之一。


05

市场机遇及相关企业


随着智能计算资源需求的大幅增加,AI芯片、AI服务器以及云计算算力需求将持续提升,相关厂商有望受益。


1、AI芯片需求上涨,国产替代在即


AI需要多元异构算力提供支持,拉动AI芯片需求。人工智能算法需要从海量的图像、语音、视频等非结构化数据中挖掘信息。从大模型的训练、场景化的微调以及推理应用场景,都需要算力支撑。而以CPU为主的通用计算能力已经无法满足多场景的AI需求。以CPU+AI芯片(GPU、FPGA、ASIC)提供的异构算力,并行计算能力优越、具有高互联带宽,可以支持AI计算效力实现最大化,成为智能计算的主流解决方案。服务器中的CPU和AI卡的数量并不固定,会根据客户应用需求调整,对于AI服务器来讲,较为常见的是配备2个CPU,以及八个AI卡。而相比于AI服务器,传统的通用服务器则以CPU为主。因此,AI的发展将极大拉动GPGPU、TPU、NPU等AI芯片的需求。


中国AI芯片市场将保持高速增长,AI推理芯片份额有望持续提升,国产化AI芯片占比有望提升。2022年,中国的AI芯片市场规模约385亿元。随着AI发展以及智算中心建设浪潮,该市场预计将保持高增长趋势。据艾瑞咨询测算,到2027年,中国的AI芯片市场规模预计将达到2164亿元。另外,在我国高性能及AI服务器中,GPGPU凭借其优越的性能和通用能力占比92%,剩下份额由AISC和FPGA分享。随着AI模型的优化落地,AI推理芯片的占比将日益提升。据艾瑞咨询,2022年,中国AI训练芯片以及AI推理芯片的占比分别为47.2%和52.8%。预计2027年,中国AI训练芯片与推理芯片的比例将分别达到23.7%与76.3%。相比于AI训练芯片,推理芯片的性能要求以及精度要求较低,部分国产AI芯片凭借其良好性能以及性价比能够满足推理端的需求,我国AI芯片国产化占比有望提升。


(1)海光信息:国产芯片之光,深算芯片性能卓越


公司DCU基于GPU架构,软件生态完善。海光DCU系列产品以GPGPU架构为基础,软件生态完善兼容通用的“类CUDA”环境,可广泛应用于大数据处理、人工智能、商业计算等应用领域,主要部署在服务器集群或数据中心,为应用程序提供高性能、高能效比的算力,支撑高复杂度和高吞吐量的数据处理任务。

典型应用场景下,海光深算系列芯片达到国际上同类型高端产品水平。海光DCU1采用FinFET工艺,同时支持全精度和半精度训练,国内市场相对稀缺;DCU2已量产,实现了在大数据、人工智能、商业计算等领域的商用。相较于深算一号,深算二号的性能实现了翻倍增长。

海光DCU某些硬件性能与英伟达的A100、AMD的MI100相近。海光DCU双精度计算能力突出。据北京大学高性能计算系统中标公告(HCZB-2021-ZB0364),海光信息的DCUZ100的通用计算核心达到8192个。其关键性能指标实现:FP6410.8TFlops,显存32GB HBM2,对比全球芯片巨头的高端AI芯片不遑多让。英伟达A100的相关指标为:FP649.7TFlops、显存40/80GB HBM2。AMDMI100的相关指标为:FP6411.5TFlops、显存32GB HBM2。

2022年,海光发布国内首个全精度(FP64)异构计算平台,该平台搭载CPU海光三号和DCU海光深算,涵盖数值模拟、AI训练、AI推理所需的多样算力,实现了智能计算与数值运算的深度融合。同时,此平台可全面支持TensorFlow、PyTorch、Caffe2等主流AI深度学习框架,目前已超过1000种应用软件部署在该平台上。

(2)华为:昇腾引领国产自主AI生态

华为基于自研达芬奇架构架构,推出了AI训练芯片昇腾910与AI推理芯片昇腾310

昇腾910基于自研华为达芬奇架构3D Cube技术,架构灵活伸缩,支持云边端全栈全场景应用。算力方面,半精度(FP16)算力达到320TFLOPS,整数精度(INT8)算力达到640TOPS,功耗310W,主要用于训练场景。

昇腾310是一款高能效、灵活可编程的人工智能处理器,在典型配置下可以输出16TOPS@INT8,8TOPS@FP16,功耗仅为8W,主要应用于推理场景。

华为构建了昇腾计算引擎CANN、AI开发框架MindSpore,以及AI开发平台ModelArts,为大模型开发和运行提供分布式并行加速、算子和编译优化、集群级通信优化等关键能力。

CANN:搭建了从上层深度学习框架到底层AI硬件的桥梁,可对标英伟达CUDA。近期更新至异构计算架构CANN7.0,支持华为昇思MindSpore、PaddlePaddle、PyTorch、TensorFlow、Caffe、Jittor等主流AI框架。

MindSpore:对标TensorFlow、PyTorch、PaddlePaddle等流行深度学习框架。截至2023年6月,MindSpore已兼容适配20余家芯片厂商伙伴的硬件设备,支持Ascend/GPU/CPU等,大幅降低AI开发门槛。

昇腾加入PyTorch社区共建,生态进一步扩容。10月18日,华为作为Premier最高级别会员正式加入全球AI开源框架PyTorch社区,PyTorch2.1版本已同步支持昇腾NPU,开发者可直接在PyTorch 2.1上基于昇腾进行模型开发。基于PyTorch,昇腾已经适配了BLOOM、GPT-3、LLaMA等业界主流大模型。

2、中国AI服务器市场有望快速增长

中国加速服务器市场有望快速增长,GPU服务器仍占主导,非GPU服务器增长迅速。据IDC,2021年,中国加速服务器市场规模达到53.9亿美元,同比增长68.6%。其中,GPU服务器仍然占据主导地位,市场份额近90%。与此同时,NPU、ASIC和FPGA等非GPU加速服务器以43.8%的增速实现了11.6%的市场份额,达到6.3亿美元。另外,IDC预测,到2026年,中国加速计算服务器市场将达到103.4亿美元。

(1)浪潮信息:全球AI服务器第一大品牌商

浪潮电子信息产业股份有限公司是浪潮集团有限公司旗下三家上市公司之一,是全球领先的IT基础架构产品、方案及服务提供商。公司主要从事服务器等云计算基础设施产品的研发、生产和销售,业务覆盖计算、存储、网络三大关键领域,提供包括云计算、大数据、人工智能、边缘计算等全方位数字化解决方案。公司以“智慧计算”为战略,构建开放融合的计算生态,为客户构建满足多样化场景的智慧计算平台,全面赋能传统产业的数字化、智能化转型与变革,重视算力基础设施的建设和发展,为中国数字经济发展提供充足的算力支持。

浪潮集团被美国列入实体清单,浪潮信息更改注册地址免于受限。2023年3月6月,美国将浪潮信息的控股股东浪潮集团新列入商务部实体清单。该实体清单明确列出了浪潮集团的地址,即中国山东省济南市浪潮路1036号。浪潮信息原本的公司注册地与浪潮集团相同。为应对此次制裁,2023年3月6日,浪潮发布公告,修改公司注册地址为“济南高新区新泺大街1768号齐鲁软件园大厦B座B302”,希望在此次实体清单事件的受到的影响尽可能减小。

浪潮信息的AI服务器在世界市场和中国市场均蝉联第一位,是AI服务器行业的顶尖巨头。根据国际数据公司IDC发布的2021H2《全球人工智能市场半年度追踪报告》,2021H1全球AI服务器市场规模156亿美元,浪潮信息在世界AI服务器市场占有率达20.9%,份额同比提升3.6pct,销售额同比增长68.3%,蝉联全球第一。另外,据IDC发布的《2021年下半年度(H2)中国加速计算服务器市场报告》,在中国市场,浪潮AI服务器占有率达52.5%,连续5年保持中国AI服务器市场份额超过50%。

(2)拓维信息:深度融入华为体系,控股湘江鲲鹏布局算力产业

拓维信息深度融入华为体系,控股湘江鲲鹏布局算力产业。拓维信息成立于1996年,以湖南为总部,业务涵盖软件服务、智能计算、开源鸿蒙操作系统,服务运营商、考试、交通、制造、教育等行业1500+政企客户。2019年,拓维信息牵头成立湘江鲲鹏,布局智能计算产业,根据天眼查数据,目前持有其75%的股份。

湘江鲲鹏以“鲲鹏+昇腾”为技术底座,为多行业提供数字化方案。公司以鲲鹏处理器、昇腾处理器为技术底座,研发和生产国产自主品牌的“兆瀚”硬件智能计算产品,构建以台式机、人工智能产品、通用服务器、软硬一体产品为核心的兆瀚计算产品矩阵,满足各行业、各新技术发展下对多样性算力的需求。作为湖南省专精特新“小巨人”企业,联合华为在湖南打造首个“硬件+软件”的鲲鹏生态基地。目前,公司产品和解决方案广泛应用于全国22+省份、50+城市,为客户提供超十万台智能计算产品及服务,支持党政、运营商、金融、交通、电力、医疗、教育等领域数字化转型。

3、众多厂商积极布局“云上”AI算力

基于云计算的AI能力逐步得到验证。用云服务提供AI算力的方式可以减少部署和管理本地计算基础设施的复杂性。随着AI技术的发展,中国的AI公有云服务业随之增长。目前,中国AI公有云服务厂商市场格局较为稳定。据IDC,2022H1,百度智能云在中国AI公有云服务市场占比第一,阿里云位居第二,且与第一名差距逐渐减小。华为云、腾讯云紧跟其后,市场份额不断提升。除了头部云厂商,优刻得、深桑达旗下中国电子云等第三方中立厂商也有望参与AI云服务,持续受益于AI算力需求的提升。

(1)中科曙光:人工智能云计算平台提供稳定高效算力

曙光人工智能云计算平台提供一站式深度学习训练与实时推理。曙光人工智能云计算平台解决方案可以提供基于云的GPU计算服务。该系统以主流深度学习框架为基础,支持Caffe、TensorFlow等多种主流深度学习框架。该平台与Kubernetes和Docker容器技术相结合,提供实验环境、离线任务和在线服务三大功能,支持业务从模型研究、批量训练到在线预测的全流程打通。该解决方案提供一站式深度学习训练/实时推理、图形图像处理以及科学计算等,大大简化了企业构建深度学习平台的难度,提高了资源使用率,降低了业务投入成本,使用户更加专注于深度学习应用本身,是目前性价比最高的整体AI训练与推理解决方案之一。

(2)深桑达:建立中国电子云,致力建设自研数据底座

以PKS技术架构体系为基,深桑达成立中国电子云,提供安全算力服务。中国电子云成立于2021年,是深桑达以中国电子PKS自主安全计算体系为底座建立的数据基础设施,包含国产化自研可信的计算架构和分布式云原生操作系统,提供涵盖IaaS、PaaS和SaaS能力的专属公有云服务。中国电子云依托的PKS体系脱胎于中国电子多年的深厚技术积累,名称中的“P”代表飞腾CPU,“K”指的是麒麟操作系统,“S”即安全,中国电子云的自研原生技术架构是保障其安全性的最大依托,体系中使用的飞腾CPU和麒麟操作系统均为中国电子自主研发,同时中国电子云交付的60%硬件设备基于国产芯片,有效防范过度依赖进口芯片带来的断供危险。凭借着在安全方面的出众表现,PKS体系在信创领域具备最大的市场份额,飞腾CPU达到74%的市场份额,麒麟操作系统甚至高达87%。

国资云赋予中国电子云独特信任优势,与智源研究院联手探索本土硬件适配,助力实现智能算力国产化。随着云计算领域不断发展推进,政务机构和大型国企催生了巨额上云需求,市场份额不断扩张,发展空间广阔。云计算开源产业联盟数据显示,2021年我国政务云市场规模达802.6亿元,预计2023年将增长至1203.9亿元。而中国电子云脱胎于中国电子,出身天生赋予其国内政企领域的充分信任,且自研架构也从技术角度保障了安全性,有效防范后门风险、漏洞风险和断供风险,保障业务过程中的“本质安全+过程安全”。但目前,中国电子云底层硬件中大比例使用的国产芯片在实现应用迁移时面临挑战,一定程度上阻碍了原生架构的建设,难以实现完备的智能算力本土替代化。为建立更完备的自研技术体系,中国电子云与智源研究院联手,共同建立“大模型国产算力云平台开放实验室”,合作探索实现国产CPU的大模型适配部署,未来有望以国产算力支撑AI领域的算力需求。

06

发展趋势


1、算力国产化或为艰难但唯一可选长期发展路径


(1)中美AI产业算力层存在差距,算力问题凸显


美国为本轮AI浪潮引领者。从AI产业的层级看,自下而上包含算力,算法,应用多个层级,其中算力为AI浪潮的底层支撑,算法为AI浪潮的重要突破,应用为AI浪潮的直接体现。从算力、算法、应用端看,美国在本轮AI浪潮中处于引领者位置,具备先发优势。算力端:美国头部厂商如英伟达基于GPU产品打造了CUDA生态,将GPU能力推向通用计算场景。英伟达打造了H100等重要产品,成为本次AI浪潮重要算力支撑。算法端:算法层面重要突破同样由美国引领,GPT底层架构Transformer由谷歌首先提出,此外OpenAI团队将GPT模型参数量不断增大,模型进一步涌现出更强的能力。应用端:美国头部厂商首先将GPT为代表的LLM能力接入应用,微软、salesforce等厂商率先实现了LLM+应用的商业化定价及应用。

中美AI产业在多个层级上均存在一定差距。横向对比中美AI产业,在多个层级上均存在一定的差距。算力端:中美AI芯片产品存在算力性能及生态差距,此外在芯片的生产端,核心环节如芯片的设计、流片等均由海外主导;算法端:海外在基础研究方面较为领先,如谷歌发布底层架构Transformer成为GPT模型的重要基础。此外海外算法具备先发优势,在迭代次数上也具备一定优势;应用端:海外头部应用多已成为行业标准,拥有较为良好的用户基础,有助于LLM+产品的快速落地,如办公领域的微软Office产品;此外海外头部厂商往往基于核心产品打造了完整的产品矩阵及平台,使AI能力的接入具备丰富的场景。

算力是中美AI产业具备重要差距的环节。在算法、算力、应用端,中美均存在一定差距,而其中算力层面的差距较为关键,主要原因:差距大小;差距大小反映的是当前静态状态下的差距。当前应用端中美均处于从产品化向商业化过渡的阶段,算法端通用大模型中GPT处于领先地位,但国内同样拥有众多大模型逐步实现产品化,有望持续迭代,而算力端国内的算力产品在落地方面与海外头部厂商相比仍较为落后;追赶难度;算力端的核心环节均受海外主导,且规避管制的方式较为有限,此外海外头部算力厂商围绕自身产品形成了包含应用、算法的生态壁垒,短期难以突破;差距的影响:算力处于基础支撑地位,直接影响模型的落地和应用的推广进度。


美国法案限制高性能AI芯片获取,算力问题逐步凸显。2023年10月17日,美国商务部工业与安全局(BIS)发布针对中国的先进计算及半导体制造物项出口限制,在2022年10月已公布的出口限制基础上,进一步升级限制力度。具体来看,本次出口限制主要涉及对高性能芯片的限制,既包括对高性能芯片的出口限制,也包括对国产GPU企业的生产流片限制。本次出口限制不再以互联带宽为限制标准,新增总处理性能TPP(Total Processing Performance,即计算速度*字节长度)和性能密度PD(Performance Density,即每平方毫米的TPP)两项要求,具体限制方案:TPP>4800的芯片、TPP>1600且PD>5.92芯片,属于高性能芯片,不再被允许出口;4800>TPP>2400且5.92>PD>1.6的芯片、TPP>1600且5.92>PD>3.2的芯片,属于次高性能芯片,需要通知BIS以获得例外许可。在美国限制法案的影响下,国内算力问题逐步凸显。

解决算力问题存在多种路径。当前国内解决算力问题存在多种路径。短期内我国厂商在AI芯片设计、工艺、生态等方面与英伟达等海外头部厂商相比还有着一定差距,因此短期内解决算力问题可以通过利用存量可得资源的方式解决,包括:基于现有可用产品;算力租赁。基于现有可用产品需要海外厂商推出符合法律法规要求的算力产品,算力租赁则是向具有GPU资源的厂商租赁GPU算力,最大化利用存量资源。而拉长时间维度后,国产自研AI芯片才最有可能成为国内AI产业发展的重要支撑。


(2)算力国产化是长期发力方向


国产AIGPU性能较英伟达先进产品仍有差距。根据目前已公开的数据,国产AIGPU芯片中,性能表现较好的产品主要包括华为昇腾的Atlas300T、寒武纪的思元370、海光的深算一号等。其中基于昇腾910设计的Atlas 300T算力性能较强,FP16计算性能在不考虑稀疏技术情况下约为英伟达A800SXM的90%。但考虑到组网技术、软件生态等竞争壁垒,国内GPU产品较英伟达方案在实际有效算力层面仍存在较大差距。且考虑到英伟达H系列算力性能更强、下一代B系列产品也已发布规划,国产GPU仍需加速追赶海外步伐。

卡间互联速率影响组网效果,国内厂商已接近A800(NVLink3.0)水准。大模型的训练和推理需要大算力的支持,无论国产GPU还是海外GPU都需要基于服务器硬件进行大规模组网才能满足相应需求。而组网过程中,卡间互联传输速率往往成为制约有效算力充分发挥的重要因素。以英伟达为例,NVLink3.0版本可以实现最高600GB/s的传输速率,但在国内特供版A800上只能实现400GB/s的速度,制约了有效算力的发挥。从国内GPU企业来看,寒武纪、华为、海光信息等均针对自有产品开发了相应互联技术,但互联速率都在400GB/s以下,最高为华为昇腾910B(392GB/s),已接近A800(400GB/s)水准,但与H100(900GB/s)等海外先进芯片的互联水平相比,仍存在一定差距。

大模型算力需求正加速增长,长期看算力缺口或仍存在。从大模型自身的发展过程来看,参数量的变化是一个非常值得关注的指标。从最早的ResNet、Inception等模型,到如今的GPT,模型参数量不断增长。2018年前后OpenAI先后推出Transformer和GPT-1模型,参数量来到1亿级别。随后谷歌提出3亿参数的BERT模型,参数量再次增长。2019、2020年,OpenAI加速追赶,陆续迭代出GPT-2、GPT-3模型,参数量分别为15亿、1750亿,实现模型体量质的飞跃。模型参数量的非线性增长或将带来算力需求的快速释放,考虑到国内获取先进算力芯片受限,长期来看,依赖海外芯片的算力租赁模式或也难以满足算力需求。

海外芯片持续迭代,长期来看算力国产化或为艰难但唯一可选路径。在大模型带来算力需求日益增长的背景下,海外AIGPU厂商也在不断迭代自身产品。如英伟达,其下一代产品B100预计将于2024年问世,在H100已经实现算力领先的情况下,或将进一步巩固自身全球AI算力龙头地位。考虑到国内虽然尚可获得部分A/H系列产品的替代品,但随着更先进算力芯片的推出,必然面临无法获得更好性能GPU的问题。基于此,算力国产化虽然在短期内成本较高,且需要克服组网性能、软件生态等壁垒障碍,但长期来看,似乎是唯一可选路径。随着国产生态逐步培育,国产算力性能提升有望帮助国产GPU厂商逐步提升国内市场份额。

2、国内AI芯片市场格局或发生改变,国产AI芯片及相关生态厂商有望实现超预期发展

美国出口管制新规给海外芯片产品限定了性能天花板,从中长期来看可能会对中国AI芯片市场格局产生深远影响。最近几年,英伟达一直在中国AI芯片市场中占据了绝对主导地位,根据IDC的统计数据,2020年及2021年英伟达分别占据中国AI芯片出货量的75%及80%以上,2022年以英伟达为主的海外芯片出货量占比达85%,2023年上半年受AI芯片禁令下囤货需求的激发,海外芯片出货量占比进一步提高至90%,其市场份额呈现持续提高的态势。

英伟达能够在中国AI芯片市场上持续获得成功,或主要得益于其强大的芯片性能和软件生态两大因素。一方面,英伟达凭借着畅通的先进制程代工渠道,能够保持每2年左右进行一次AI芯片架构及工艺制程的升级,从而使其AI芯片性能不断跃升。而国产AI芯片公司在美国制裁措施的影响下,无法使用先进制程进行芯片的生产与迭代,与英伟达芯片在计算性能上的剪刀差持续拉大。另一方面,英伟达具有强大的CUDA软件生态架构,目前市场上最主流的AI框架都围绕CUDA生态展开。英伟达在硬件和软件上的双重优势形成了良性循环,更高的计算性能吸引更多的用户使用,从而吸引更多的AI应用开发者,从而再反哺硬件销售,二者相互促进,使其市场竞争力不断增强,市场份额持续提高。

然而美国政府此次更新的出口管制新规给海外芯片产品限定了一个明确的算力性能天花板,对英伟达等海外芯片厂商来说相当于自断一臂。新规规定只要总计算性能达到4800或者性能密度达到5.92及以上便默认拒绝对中国出口,总计算性能指标相当于将海外芯片的FP16算力限定在不超过300TFLOPS,性能密度指标使得采用先进工艺提升芯片集成度的意义也大幅下降。因此未来如果该管制措施不做修改或取消,海外AI芯片的算力性能天花板或已经锁定,为国产AI芯片实现算力性能赶超提供客观条件,同时海外芯片通过集群互联方式提高整体计算能力带来的高额成本也不容忽视,所以从中长期来看,海外芯片厂商的市场优势可能将逐渐丧失。

以华为昇腾为代表的国产AI芯片持续迭代,国内互联网大客户正在适配,未来有望实现超预期发展。2019年3季度,华为发布了面向数据中心场景的AI训练芯片昇腾910,根据华为官方披露的消息,该芯片采用华为自研的达芬奇架构及7nm工艺,FP16算力达到256TFLOPS,最大功耗为310W。但后续由于英伟达在2020年及2022年推出了性能更强的A100及H100芯片,且华为的产能受到代工制裁的冲击,昇腾910未能在市场上占据主导地位。尽管面临着严格的代工制裁,华为仍在不断推动芯片设计的迭代及产能的恢复。根据科大讯飞董事长刘庆峰2023年8月份的公开演讲,基于华为昇腾910B芯片打造的全国产化算力底座的单卡性能已经可以对标英伟达A100,由于A100的FP16算力达到312TFLOPS,据此可以推测昇腾910B芯片的FP16算力或许已经接近312TFLOPS,这已经达到了出口管制新规下海外芯片性能的天花板。如果未来华为能继续推动芯片的迭代,其在中国市场上与海外芯片的性能差距将反向拉开,国产芯片有望成为性能领先一方。

根据华为官网信息,2023年8月16日华为百度联合发起飞浆+文心大模型硬件生态共创计划,双方将共同推动昇腾AI与飞浆+文心大模型的适配,充分发挥软硬件协同优势,便利开发者和用户,促进更多AI应用落地,实现惠普AI。百度飞浆是国内最主流的国产深度学习框架之一,百度文心大模型则是领先的国产大模型之一。互联网大客户开始适配国产AI芯片生态具有重要意义,互联网行业是我国AI服务器最重要的下游客户,IDC数据显示过去几年互联网行业占据国内AI服务器50%-60%的下游需求。互联网大客户拥有广泛且优质的AI应用场景,并拥有先进的AI应用开发框架及经验,有望快速推动国产AI芯片软件生态的发展壮大,复刻英伟达软硬件生态良性互动的成长路径,推动国产AI芯片及相关生态厂商超预期发展。

3、华为昇腾产业链有望受益

华为是中国算力的重要力量,拥有完整的算力芯片体系。旗下鲲鹏、昇腾两大核心芯片族,均是基于ARMV8永久授权架构下的自研芯片族。其中,鲲鹏包括服务器和PC机芯片,昇腾AI芯片包括训练和推理芯片。依托“鲲鹏+昇腾”双底座,华为打造出了“算、存、传、管、智”五个子系统的芯片族,实现了计算芯片领域的全面自研。目前,华为是业界仅有的同时拥有这五类关键芯片的厂商,在我国芯片领域具有极强的竞争力。

华为针对人工智能领域应用场景,在2018年的华为全链接2018大会上推出了昇腾系列(HUAWEI Ascend)芯片,主要产品有昇腾310与昇腾910。昇腾310芯片是一款高能效、灵活可编程的人工智能处理器,芯片在典型配置下可以输出16TOPS@INT8,8TOPS@FP16,功耗仅为8W。昇腾310芯片采用自研华为达芬奇架构,集成丰富的计算单元,提高AI计算完备度和效率,进而扩展该芯片的适用性。芯片实现了全AI业务流程加速,大幅提高AI全系统的性能,有效降低部署成本。昇腾910是业界算力最强的AI处理器,芯片基于自研华为达芬奇架构3D Cube技术,实现业界极佳AI性能与能效。芯片架构灵活伸缩,支持云边端全栈全场景应用。在算力方面,昇腾910完全达到设计规格,半精度(FP16)算力达到320TFLOPS,整数精度(INT8)算力达到640TOPS,功耗310W。据艾瑞咨询发布的《2021年中国人工智能芯片市场研究报告》显示,2020年华为昇腾AI芯片市场份额达到26.3%,已经成为中国市场份额领先的人工智能芯片厂商之一。

华为昇腾已经构建起覆盖各个主要环节的产业生态。华为的昇腾计算产业是基于昇腾系列处理器和基础软件构建的全栈AI计算基础设施、行业应用及服务,包括昇腾系列处理器、系列硬件、CANN(Compute Architecturefor NeuraI Networks,异构计算架构)、AI计算框架、应用使能、开发工具链、管理运维工具、行业应用及服务等全产业链。

同时,华为构建了“一云两翼、双引擎”的产业布局,构筑开放的产业生态

一云(华为云):通过全栈创新,为开发者提供安全可靠的云服务以及开发体系。

两翼(智能计算&智能数据与存储):在智能计算领域,面向端、边、云,提供“鲲鹏+昇腾+x86+GPU”的多样性算力。在智能数据与存储领域,融合了存储、大数据、数据库、AI,围绕数据的全生命周期,让数据的每比特成本最优、让数据的每比特价值最大。

双引擎(鲲鹏+昇腾):围绕鲲鹏与昇腾两大核心基础芯片加速,构筑满足未来算力需求的异构计算架构。

开发生态:硬件开发、软件开源,使能合作伙伴,共建开放的产业生态。

昇腾芯片性能较优,华为AI服务器有望率先受益于国内AI发展而快速扩张。昇腾整机硬件伙伴为拥有自有品牌产品,能在昇腾产品基础上二次开发或加工生产,并销售与服务至最终用户的合作伙伴。宝德、华鲲振宇、长江计算在内的昇腾服务器伙伴可享受AI红利而持续扩张。

07

市场空间


1、数据量增长带来算力需求提升,智能算力规模有望快速增长


数据海量增加,算法模型愈加复杂,应用场景的深入和发展,带来了对算力需求的快速提升。根据白皮书数据显示,从2012年开始的6年中,Al计算的需求增加了30万倍。

根据IDC测算,国内智能算力规模正在高速增长,2021年中国智能算力规模达155.2每秒百亿亿次浮点运算(EFLOPS),2022年智能算力规模将达到268.0EFLOPS,预计到2026年智能算力规模将进入每秒十万亿亿次浮点计算(ZFLOPS)级别,达到1,271.4EFLOPS。2021-2026年期间,预计中国智能算力规模年复合增长率达52.3%。

通用算力规模也正在高速增长,根据IDC测算,2021年中国通用算力规模达47.7EFLOPS,预计到2026年通用算力规模将达到111.3EFLOPS。2021-2026年期间,预计中国通用算力规模年复合增长率为18.5%。


2、算力层面AI芯片和服务器市场规模也将保持快速增长


AI包括人工智能芯片、服务器、计算架构、算法及应用等方面,以下我们主要关注算力层面,即AI芯片和服务器。


全球市场:全球人工智能技术发展逐渐成熟,数字化基础设施不断建设完善,推动全球人工智能芯片市场高速增长。IDC全球范围调研显示,人工智能芯片搭载率(attachrate)将持续增高。根据Tractica、寒武纪招股书相关数据,全球人工智能芯片2022年市场规模预计约395亿美金,预计到2025年将达到726亿美金,年复合增长率达到22%。

国内市场:22-24年复合增速有望达到46%。随着大数据的发展和计算能力的提升,根据寒武纪招股书,2022年中国人工智能芯片市场规模预计达368亿元,预计2024年市场规模将达到785亿元,复合增速有望达到46%。

AI服务器市场保持快速发展:国内2021年市场规模超300亿元,增速近70%。全球市场:根据IDC发布的《全球人工智能市场半年度追踪报告》显示,2021年全球人工智能服务器市场规模达156.3亿美元,约合人民币1045亿元,全球年度人工智能服务器市场首次突破千亿元人民币,同比2020年增速达39%。其中,浪潮信息、戴尔、HPE分别以20.9%、13.0%、9.2%的市占率位列前三,三家厂商总市场份额占比达43.1%。人工智能服务器市场预计将继续高速增长,预计2026年全球人工智能服务器市场规模将达到347.1亿美元,五年复合增长率为17.3%。

国内市场:根据IDC数据,2021年中国人工智能服务器市场规模达到59.2亿美元,与2020年相比增长68.2%,其中,浪潮信息、新华三、宁畅、安擎、华为等诸多中国厂商正加速推动人工智能基础设施产品的优化更新。预计到2026年,中国人工智能服务器市场规模将达到123.4亿美元。

从工作负载角度而言:企业将把精力更多从人工智能训练转移到人工智能推理工作负载上,根据IDC数据,2021年中国数据中心用于推理的服务器的市场份额占比已经过半,达到57.6%,预计到2026年,用于推理的工作负载将达到62.2%。

算力在线
算力在线

扫码添加客服微信