英伟达和amd

更新时间:2023-03-18 20:27:01 阅读: 评论:0

连拍速度-惠普进bios

英伟达和amd
2023年3月18日发(作者:摇骰子规则和叫法)

2022年异构计算

(CPU/GPGPU/FPGA/AI/DP

U)市场空间及发展趋势

近年来,在云计算蓬勃发展的同时,异构计算市场也乘风得到了

长足的发展。对芯片设计企业而言,过去进入服务器计算芯片市场只

有通过有竞争力的X86CPU,而现在GPU、FPGA、AI芯片各类架构

CPU等多种计算芯片均在服务器中得到广泛应用,为国产CPU及AI

芯片公司,以及基于国产芯片的智能计算产业链提供了良好像的近义词 好的发展机

会。

技术层面上,传统CPU为中心的计算架构,已经不能满足信息

应用需求,开始转向CPU来负责系统管理和应用程序,维持软硬件

生态,各种XPU(XProcessUnit,各种处理器)来提供算力,各个

芯片协同合作来实现数据中心降本增效。

CPU

CPU中央处理器作为计算机系统的运算和控制核心,是信息处理、

程序运行的最终执行单元。CPU是整个IT生态的定义者,无论是服

务器端的X86还是移动端的ARM(安谋),都各自构建了稳固的生态

系统,不仅形成技术生态圈,还形成闭合价值链。

数据中心应用CPU价格高,利润最为丰富,根据不同配置,CPU

占据服务器总成本约1/3到1/2。根据中金证券研究数据,2021年

中国服务器CPU市场规模60亿美元,预计2024年达到92亿美

元,3年年均复合增长率15%。

X86、ARM、RISC-V(ReducedInstructionSetComputer-V,

第五代精简指令集计算机)是CPU三大技术架构。服务器市场上

X86处理器市占率超过90%,占据绝对主导地位。其中英特尔市场占

有率接近90%,服务器市场贡献了英特尔主要的利润和营收。借助台

积电先进制程,AMD服务器CPU霄龙强势崛起,根据IDC数据2021

年第四季度,AMD数据中心CPU市场占有率自2016年之后首超

10%。为应对新思念情人的诗 的挑战,英特尔2021年底历史第一次宣布开放X86

指令集给第三方公司。

ARM开放指令集以及在移动端构建的良好生态,数据中心巨大市

场以及丰厚利润吸引各家巨头入局开发ARM架构服务器CPU,其市

场占有率稳步提升。除美满、富士通、英伟达、海思等传统芯片巨头

之外,亚马逊、谷歌、阿里等手握资金、技术以及应用场景举棋不定 的新型互

联网公司也加入这一战局,给市场带来变数。ARM架构服务器CPU性

能不断提升、生态不断完善,与X86架构正面竞争,蚕食之势不容

小觑。

RISC-V作为后起之秀发展迅速,英特尔在2021年提出20亿

美元收购专注于高性能计算的RISC-V初创公司SiFIVE。RISC-V是

开源指令集,开放程度比ARM更好,支持指令集扩展。RISC-V在专

用领域的计算已经取得成效,比如国内初创公司希姆计算,把RISC-V

作为AI加速卡计算核心,并扩展张量和矢量计算核,应用于互联网

云端推理芯片,实现良好编程性,性价比相比传统GPU芯片提升4

倍,产品即将在头部互联网公司内容和广告推荐场景开始大规模部署。

在信创市场驱动下,国产CPU各个技术赛道全方面布局,初步

满足国产替代需求。CPU进入门槛最高,Wintel(Windows-intel,

微软和英特尔)联盟构建了又深又宽的护城河。信创市场场景相对简

单,降低了CPU生态建立难度,另外市场规模大,能够支持国产芯

片公司持续迭代产品,给国产CPU发展带来巨大市场机会。中国CPU

另外一个特点就是各个技术赛道全方面布局。X86架构有海光、兆芯,

新兴ARM架构有飞腾、海思,MIPS(Microprocessorwithout

InterlockedPipedStages,无内部互锁流水级处理器)架构有龙

芯,RISC-V架构有阿里等。

GPU/GPGPU

传统CPU为核心的计算苹果手机闹钟 架构中所有数据和指令都由CPU来处

理。然而CPU的架构不适合处理高并行度数据计算业务,更适合进

行逻辑运算和整个计算机的管理。随着业务越来越复杂,数据流量呈

现指数级增长,全部业务和数据靠CPU处理,性价比极低。因此出

现了各种协处理器XPU,专门帮助CPU处理各种特定应用场景业务。

最早出现的就是计算机3D图形渲染专用加速芯片,特点是大量的并

行小核,需要在CPU调度下工作。1999年英伟达发布第一款GPU产

品NV10,在市场上第一次推出GPU概念。随后英伟达把GPU应用

推广到GPGPU和CUDA(ComputeUnifiedDeviceArchitecture,

统一计算设备架构)编程框架推广,GPU成为并行计算的主力算力

引擎。2012年的ImageNet比赛,取得突破的AlexNet的发明人亚

历克斯使用了英伟达的GPU,证明了GPU非常适合用于多并行计算

的神经网络,从此GPU成为深度学习标配,引爆市场。

目前中国深度学习加速服务器90%还是采用GPU/GPGPU,根据中

金证券测算,2021年中国服务器应用GPU/GPGPU市场规模达到25

亿美元,预计2024年市场规模达到54亿美元,3年复合增长率达

到30%。

GPU采用最先进的逻辑工艺,不考虑巨大的生态建设费用,单芯

片研发成本10亿人民币起步,过去鲜有资本和创业团队涉足。在

GPU成为AI主要算力芯片,海外英伟达股价屡创新高的示范效应下,

叠加中国进口替代以及科创板对芯片产业支持带来的赚钱效应,资本

市场对国产GPU赛道高度兴奋,GPU初创公司不断涌现,融资金额

屡创新高,估值动辄超百亿。英伟达、AMD高管为主的创业团队,超

一线VC机构重金支持,成为国产GPU初创公司范式。

FPGA

FPGA是基于通用逻辑电路阵列的集成电路芯片,和ASIC芯片

不同,其最大的特点是芯片的具体功能在制造完成以后由用户配置决

定。用户可通过配套的FPGA专用EDA软件实现具体功能,首先由

专用EDA软件接受用硬件语言描述的用户电路,其次编译生成二进

制位流数据,最后将位流下载到芯片中实现用户所需特定功能的集成

电路芯片。每颗FPGA芯片均可以进行多次不同功能配置,从而实现

不同的功能。

FPGA芯片具有灵活性高、应用开发成本低、上市时间短等优势。

数据中心是FPGA芯片的新兴应用市场之一,根据Frost&sullivan

数据,2020年应用于该领域的FPGA芯片中国销售额将达到16.1

亿元,占中国FPGA芯片市场份额的10.7%,预计2024年将达到30

亿元,2021年至2024年年均复合增长率将达到16.6%。

FPGA芯片在数据中心领域主要用于硬件加速,数据中心使用

FPGA芯片代替传统的CPU方案后,处理其自定义算法时可实现显著

的加速效果。因此从2016年开始,微软Azure、亚马逊AWS、阿里

云的服务器上都开始部署FPGA加速器用于运算加速。在云计算大面

积应用的背景下,未来数据中心对芯片性能的要求将进一步提升,更

多数据中心将采纳FPGA芯片方案,这将进一步提高FPGA芯片在数

据中心芯片中的价值占比。

FPGA芯片向高集成化的现场可编程系统级芯片发展。英特尔

2015年收购Altera阿尔特拉,AMD2022年完成收购Xilinx赛灵

思,CPU和FPGA融合成为趋势。国际主流FPGA芯片公司逐渐形成

了在FPGA芯片中加入处理器的技术路线,并产生了可编程系统级芯

片这一新产物。和传统FPGA芯片不同,现场可编程系统级芯片的特

点是单芯片高度集成炒瓜子 电子信息设备所需的CPU、FPGA、存储接口、

I/O(Input/Output,输入输出)外设接口甚至人工智能专用引擎等所

有模咸鸭蛋的做法 块,单颗芯片可完成应用情景的所有功能需求。

AI加速芯片

深度学习涉及少量标量计算、大量的矢量计算和张量计算。GPU

是标量计算核,在处理深度学习数据时,需要消耗大量资源把矢量和

张量计算转变为标量计算,因此GPU实际算力利用率最高只能达到

40%。固定算法的ASIC芯片利用率最高,但是不适合业务复杂、算

法在一直更新的云计算应用,而更适合边缘端应用。因此专门针对深

度学习应用,结合标量计算、矢量计算和张量计算的DSA(Domain

SpecificArchitectures,特定领域专用架构)架构应运而生,针对

AI推理应用,实际算力利用合伙协议书范本 率可超过90%,并且其芯片提供最基本

的深度学习算子,保证芯片在深度学习应用的通用性和扩展性,从而

实现数据中心降本增效。2019年英特尔20亿美元收购了以色列初

创公司HabanaLab,证明了DSA架构在商业和技术上的成功。国内

希姆计算、瀚博、燧原等初创公司都采用DSA架构技术路线,并开

始商业落地。

根据中金证券测算,2021年中国云计算应用AI加速芯片市场

规模约5亿美元,预计2024年市场规模将达到14亿美元,三年

年均复合增长率达到47%。

互联网公司成为AI加速芯片主力。互联网公司直接面向终端提

供服务,既拥有丰富的业务场景,又具备技术和资金实力,于是开始

绕过英特尔、英伟达等传统芯片供应商下场自研芯片或者投资芯片初

创公司,满足自身需求。比如谷歌TPU,百度昆仑芯片,亚马逊,字

节跳动等,都在结合自身应用场景自研AI加速芯片。

场景专用的云端AI推理加速芯片,依靠性价比取胜,加速取代

GPU成为主要考研报名人数 算力芯片。互联网公司推理应用场景主要是内容推荐和

内容审核,内容和用户都已经完成向量化,对芯片实时性要求高,对

芯片生态和通用性要求低。并且推理芯片的需求量和增速远高于训练

芯片,根据Facebook给出的预测,今后推理芯片和训练芯片的需求

量是9:1。专门针对AI云端推理计算的DSA架构AI推理加速芯

片,实际任务负载达到90%以上,实现相同工艺节点GPU的2倍以

上性价比。DSA架构AI推理加速芯片正在加速取代GPU成为AI

推理的主要算力芯片。

RISC-V成为AI云端推理芯片最佳技术大黄米的功效与作用 路线。RISC-V是第五代

开源精简指令集,允开封府的包公 许用户自定义扩展指令集。MIPS和ARM虽然也

是精简指令集,但不允许用户去删减、扩展指令集,因此在特定场景

应用下往往造成臃肿。而RISC-V扩散性好,对用户友好,且RISC-V

是CPU指令集,构成了图灵完备,相比DSP(DigitalSignal

Processor,数字信号处理器)指令集,芯片厂商自定义指令集,用

户可以更方便地用RISC-V去描述任何新算子。

DPU

数据中心规模越来越大,任务越来越复杂,根据亚马逊统计仅处

理网络通信就需消耗CPU30%的算力,亚马逊称之为“datacentertax

(数据中心税)”。DPU是以数据为中心构造的专用处理器,支持数据

中心底层存储、安全、服务质量管理等基础设施层服务。DPU要解决

的核心问题是基础设施的“降本增效”,即将“CPU处理效率低下、

GPU处理不了”的负载卸载到专用DPU,提升整个计算系统的效率、

降低整体系统的总体拥有成本(TCO)。

根据头豹研究院测算,2021年中国云计算应用DPU市场规模约

4亿美元,预计到2024年市场规模将达到20亿美元,三年年均复

合增长率达70%。

中国有机会出现DPU市场巨头。DPU作为专门负责数据中心底

层网络通信的算力芯片,是一个新兴赛道,国内外发展差距小。而且

中国在云计算领域,市场规模、增速、特别是用户数量,相较国外都

有巨大优势。在英伟达发布的DPU产品战略中将DPU定位为数据中

心继CPU和GPU之后的“第三颗主力芯片”,更掀起了一波行业热

潮,2021年DPU成为最热的投资赛道。

DPU作为新兴赛道,最大的挑战是行业标准化。由于数据中心本

身的复杂性,各大厂商一方面采用现成商业软件来构建系统,追求低

成本,一方面又设法分层服务化(IaaS、PaaS、SaaS),打造面向不

用类型客户的标准化产品。除此之外的所有技术实现几乎都是“八仙

过海,各显神通”。

本文发布于:2023-03-18 20:26:59,感谢您对本站的认可!

本文链接:https://www.wtabcd.cn/fanwen/zuowen/1679142421302731.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

本文word下载地址:英伟达和amd.doc

本文 PDF 下载地址:英伟达和amd.pdf

上一篇:气与血的关系
下一篇:返回列表
标签:英伟达和amd
相关文章
留言与评论(共有 0 条评论)
   
验证码:
推荐文章
排行榜
Copyright ©2019-2022 Comsenz Inc.Powered by © 专利检索| 网站地图