2022年异构计算
(CPU/GPGPU/FPGA/AI/DP
U)市场空间及发展趋势
近年来,在云计算蓬勃发展的同时,异构计算市场也乘风得到了
长足的发展。对芯片设计企业而言,过去进入服务器计算芯片市场只
有通过有竞争力的X86CPU,而现在GPU、FPGA、AI芯片各类架构
CPU等多种计算芯片均在服务器中得到广泛应用,为国产CPU及AI
芯片公司,以及基于国产芯片的智能计算产业链提供了良好像的近义词 好的发展机
会。
技术层面上,传统CPU为中心的计算架构,已经不能满足信息
应用需求,开始转向CPU来负责系统管理和应用程序,维持软硬件
生态,各种XPU(XProcessUnit,各种处理器)来提供算力,各个
芯片协同合作来实现数据中心降本增效。
CPU
CPU中央处理器作为计算机系统的运算和控制核心,是信息处理、
程序运行的最终执行单元。CPU是整个IT生态的定义者,无论是服
务器端的X86还是移动端的ARM(安谋),都各自构建了稳固的生态
系统,不仅形成技术生态圈,还形成闭合价值链。
数据中心应用CPU价格高,利润最为丰富,根据不同配置,CPU
占据服务器总成本约1/3到1/2。根据中金证券研究数据,2021年
中国服务器CPU市场规模60亿美元,预计2024年达到92亿美
元,3年年均复合增长率15%。
X86、ARM、RISC-V(ReducedInstructionSetComputer-V,
第五代精简指令集计算机)是CPU三大技术架构。服务器市场上
X86处理器市占率超过90%,占据绝对主导地位。其中英特尔市场占
有率接近90%,服务器市场贡献了英特尔主要的利润和营收。借助台
积电先进制程,AMD服务器CPU霄龙强势崛起,根据IDC数据2021
年第四季度,AMD数据中心CPU市场占有率自2016年之后首超
10%。为应对新思念情人的诗 的挑战,英特尔2021年底历史第一次宣布开放X86
指令集给第三方公司。
ARM开放指令集以及在移动端构建的良好生态,数据中心巨大市
场以及丰厚利润吸引各家巨头入局开发ARM架构服务器CPU,其市
场占有率稳步提升。除美满、富士通、英伟达、海思等传统芯片巨头
之外,亚马逊、谷歌、阿里等手握资金、技术以及应用场景举棋不定 的新型互
联网公司也加入这一战局,给市场带来变数。ARM架构服务器CPU性
能不断提升、生态不断完善,与X86架构正面竞争,蚕食之势不容
小觑。
RISC-V作为后起之秀发展迅速,英特尔在2021年提出20亿
美元收购专注于高性能计算的RISC-V初创公司SiFIVE。RISC-V是
开源指令集,开放程度比ARM更好,支持指令集扩展。RISC-V在专
用领域的计算已经取得成效,比如国内初创公司希姆计算,把RISC-V
作为AI加速卡计算核心,并扩展张量和矢量计算核,应用于互联网
云端推理芯片,实现良好编程性,性价比相比传统GPU芯片提升4
倍,产品即将在头部互联网公司内容和广告推荐场景开始大规模部署。
在信创市场驱动下,国产CPU各个技术赛道全方面布局,初步
满足国产替代需求。CPU进入门槛最高,Wintel(Windows-intel,
微软和英特尔)联盟构建了又深又宽的护城河。信创市场场景相对简
单,降低了CPU生态建立难度,另外市场规模大,能够支持国产芯
片公司持续迭代产品,给国产CPU发展带来巨大市场机会。中国CPU
另外一个特点就是各个技术赛道全方面布局。X86架构有海光、兆芯,
新兴ARM架构有飞腾、海思,MIPS(Microprocessorwithout
InterlockedPipedStages,无内部互锁流水级处理器)架构有龙
芯,RISC-V架构有阿里等。
GPU/GPGPU
传统CPU为核心的计算苹果手机闹钟 架构中所有数据和指令都由CPU来处
理。然而CPU的架构不适合处理高并行度数据计算业务,更适合进
行逻辑运算和整个计算机的管理。随着业务越来越复杂,数据流量呈
现指数级增长,全部业务和数据靠CPU处理,性价比极低。因此出
现了各种协处理器XPU,专门帮助CPU处理各种特定应用场景业务。
最早出现的就是计算机3D图形渲染专用加速芯片,特点是大量的并
行小核,需要在CPU调度下工作。1999年英伟达发布第一款GPU产
品NV10,在市场上第一次推出GPU概念。随后英伟达把GPU应用
推广到GPGPU和CUDA(ComputeUnifiedDeviceArchitecture,
统一计算设备架构)编程框架推广,GPU成为并行计算的主力算力
引擎。2012年的ImageNet比赛,取得突破的AlexNet的发明人亚
历克斯使用了英伟达的GPU,证明了GPU非常适合用于多并行计算
的神经网络,从此GPU成为深度学习标配,引爆市场。
目前中国深度学习加速服务器90%还是采用GPU/GPGPU,根据中
金证券测算,2021年中国服务器应用GPU/GPGPU市场规模达到25
亿美元,预计2024年市场规模达到54亿美元,3年复合增长率达
到30%。
GPU采用最先进的逻辑工艺,不考虑巨大的生态建设费用,单芯
片研发成本10亿人民币起步,过去鲜有资本和创业团队涉足。在
GPU成为AI主要算力芯片,海外英伟达股价屡创新高的示范效应下,
叠加中国进口替代以及科创板对芯片产业支持带来的赚钱效应,资本
市场对国产GPU赛道高度兴奋,GPU初创公司不断涌现,融资金额
屡创新高,估值动辄超百亿。英伟达、AMD高管为主的创业团队,超
一线VC机构重金支持,成为国产GPU初创公司范式。
FPGA
FPGA是基于通用逻辑电路阵列的集成电路芯片,和ASIC芯片
不同,其最大的特点是芯片的具体功能在制造完成以后由用户配置决
定。用户可通过配套的FPGA专用EDA软件实现具体功能,首先由
专用EDA软件接受用硬件语言描述的用户电路,其次编译生成二进
制位流数据,最后将位流下载到芯片中实现用户所需特定功能的集成
电路芯片。每颗FPGA芯片均可以进行多次不同功能配置,从而实现
不同的功能。
FPGA芯片具有灵活性高、应用开发成本低、上市时间短等优势。
数据中心是FPGA芯片的新兴应用市场之一,根据Frost&sullivan
数据,2020年应用于该领域的FPGA芯片中国销售额将达到16.1
亿元,占中国FPGA芯片市场份额的10.7%,预计2024年将达到30
亿元,2021年至2024年年均复合增长率将达到16.6%。
FPGA芯片在数据中心领域主要用于硬件加速,数据中心使用
FPGA芯片代替传统的CPU方案后,处理其自定义算法时可实现显著
的加速效果。因此从2016年开始,微软Azure、亚马逊AWS、阿里
云的服务器上都开始部署FPGA加速器用于运算加速。在云计算大面
积应用的背景下,未来数据中心对芯片性能的要求将进一步提升,更
多数据中心将采纳FPGA芯片方案,这将进一步提高FPGA芯片在数
据中心芯片中的价值占比。
FPGA芯片向高集成化的现场可编程系统级芯片发展。英特尔
2015年收购Altera阿尔特拉,AMD2022年完成收购Xilinx赛灵
思,CPU和FPGA融合成为趋势。国际主流FPGA芯片公司逐渐形成
了在FPGA芯片中加入处理器的技术路线,并产生了可编程系统级芯
片这一新产物。和传统FPGA芯片不同,现场可编程系统级芯片的特
点是单芯片高度集成炒瓜子 电子信息设备所需的CPU、FPGA、存储接口、
I/O(Input/Output,输入输出)外设接口甚至人工智能专用引擎等所
有模咸鸭蛋的做法 块,单颗芯片可完成应用情景的所有功能需求。
AI加速芯片
深度学习涉及少量标量计算、大量的矢量计算和张量计算。GPU
是标量计算核,在处理深度学习数据时,需要消耗大量资源把矢量和
张量计算转变为标量计算,因此GPU实际算力利用率最高只能达到
40%。固定算法的ASIC芯片利用率最高,但是不适合业务复杂、算
法在一直更新的云计算应用,而更适合边缘端应用。因此专门针对深
度学习应用,结合标量计算、矢量计算和张量计算的DSA(Domain
SpecificArchitectures,特定领域专用架构)架构应运而生,针对
AI推理应用,实际算力利用合伙协议书范本 率可超过90%,并且其芯片提供最基本
的深度学习算子,保证芯片在深度学习应用的通用性和扩展性,从而
实现数据中心降本增效。2019年英特尔20亿美元收购了以色列初
创公司HabanaLab,证明了DSA架构在商业和技术上的成功。国内
希姆计算、瀚博、燧原等初创公司都采用DSA架构技术路线,并开
始商业落地。
根据中金证券测算,2021年中国云计算应用AI加速芯片市场
规模约5亿美元,预计2024年市场规模将达到14亿美元,三年
年均复合增长率达到47%。
互联网公司成为AI加速芯片主力。互联网公司直接面向终端提
供服务,既拥有丰富的业务场景,又具备技术和资金实力,于是开始
绕过英特尔、英伟达等传统芯片供应商下场自研芯片或者投资芯片初
创公司,满足自身需求。比如谷歌TPU,百度昆仑芯片,亚马逊,字
节跳动等,都在结合自身应用场景自研AI加速芯片。
场景专用的云端AI推理加速芯片,依靠性价比取胜,加速取代
GPU成为主要考研报名人数 算力芯片。互联网公司推理应用场景主要是内容推荐和
内容审核,内容和用户都已经完成向量化,对芯片实时性要求高,对
芯片生态和通用性要求低。并且推理芯片的需求量和增速远高于训练
芯片,根据Facebook给出的预测,今后推理芯片和训练芯片的需求
量是9:1。专门针对AI云端推理计算的DSA架构AI推理加速芯
片,实际任务负载达到90%以上,实现相同工艺节点GPU的2倍以
上性价比。DSA架构AI推理加速芯片正在加速取代GPU成为AI
推理的主要算力芯片。
RISC-V成为AI云端推理芯片最佳技术大黄米的功效与作用 路线。RISC-V是第五代
开源精简指令集,允开封府的包公 许用户自定义扩展指令集。MIPS和ARM虽然也
是精简指令集,但不允许用户去删减、扩展指令集,因此在特定场景
应用下往往造成臃肿。而RISC-V扩散性好,对用户友好,且RISC-V
是CPU指令集,构成了图灵完备,相比DSP(DigitalSignal
Processor,数字信号处理器)指令集,芯片厂商自定义指令集,用
户可以更方便地用RISC-V去描述任何新算子。
DPU
数据中心规模越来越大,任务越来越复杂,根据亚马逊统计仅处
理网络通信就需消耗CPU30%的算力,亚马逊称之为“datacentertax
(数据中心税)”。DPU是以数据为中心构造的专用处理器,支持数据
中心底层存储、安全、服务质量管理等基础设施层服务。DPU要解决
的核心问题是基础设施的“降本增效”,即将“CPU处理效率低下、
GPU处理不了”的负载卸载到专用DPU,提升整个计算系统的效率、
降低整体系统的总体拥有成本(TCO)。
根据头豹研究院测算,2021年中国云计算应用DPU市场规模约
4亿美元,预计到2024年市场规模将达到20亿美元,三年年均复
合增长率达70%。
中国有机会出现DPU市场巨头。DPU作为专门负责数据中心底
层网络通信的算力芯片,是一个新兴赛道,国内外发展差距小。而且
中国在云计算领域,市场规模、增速、特别是用户数量,相较国外都
有巨大优势。在英伟达发布的DPU产品战略中将DPU定位为数据中
心继CPU和GPU之后的“第三颗主力芯片”,更掀起了一波行业热
潮,2021年DPU成为最热的投资赛道。
DPU作为新兴赛道,最大的挑战是行业标准化。由于数据中心本
身的复杂性,各大厂商一方面采用现成商业软件来构建系统,追求低
成本,一方面又设法分层服务化(IaaS、PaaS、SaaS),打造面向不
用类型客户的标准化产品。除此之外的所有技术实现几乎都是“八仙
过海,各显神通”。
本文发布于:2023-03-18 20:26:59,感谢您对本站的认可!
本文链接:https://www.wtabcd.cn/fanwen/zuowen/1679142421302731.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文word下载地址:英伟达和amd.doc
本文 PDF 下载地址:英伟达和amd.pdf
留言与评论(共有 0 条评论) |