AI算力芯片市场分析.docx

上传人:p** 文档编号:1204943 上传时间:2024-11-24 格式:DOCX 页数:8 大小:16.48KB
下载 相关 举报
AI算力芯片市场分析.docx_第1页
第1页 / 共8页
AI算力芯片市场分析.docx_第2页
第2页 / 共8页
AI算力芯片市场分析.docx_第3页
第3页 / 共8页
AI算力芯片市场分析.docx_第4页
第4页 / 共8页
AI算力芯片市场分析.docx_第5页
第5页 / 共8页
AI算力芯片市场分析.docx_第6页
第6页 / 共8页
AI算力芯片市场分析.docx_第7页
第7页 / 共8页
AI算力芯片市场分析.docx_第8页
第8页 / 共8页
亲,该文档总共8页,全部预览完了,如果喜欢就下载吧!
资源描述

《AI算力芯片市场分析.docx》由会员分享,可在线阅读,更多相关《AI算力芯片市场分析.docx(8页珍藏版)》请在第壹文秘上搜索。

1、AI算力芯片市场分析一、A1.处史上最长繁荣期,算力国产化需求迫切A1.正处史上最长繁荣大周期人工智能从1956年被正式提出以来,经历了数十年的发展历程。人工智能诞生初期,其研究主要分为三个流派,即逻辑演绎、归纳统计和类脑计算。人工智能研究的三大流派各有优劣势。类脑计算流派的目标最为宏远,但在未得到生命科学的支撑之前,难以取得实际应用。归纳演绎流派的思考方式与人类相似,具有较强的可解释性。由于对数据和算力的依赖较少,归纳演绎流派成为人工智能前两次繁荣的主角。随着学界对人工智能困难程度的理解逐渐加深,数理逻辑方法的局限性被不断放大,并最终在第三次繁荣期中,逐渐让位于统计学习的“暴力美学”。在进入

2、21世纪以来,在大数据和大算力的支持下,归纳统计方法逐渐占据了人工智能领域的主导地位,深度学习的浪潮席卷人工智能,人工智能迎来史上最长的第三次繁荣期,至今仍未有结束的趋势。智能算力规模将快速增长复杂的模型和大规模的训练需要大规模的高算力支持,这不仅需要消耗大量计算资源,而且对算力的速度、精度、性能也提出更高要求。市场对于更高性能的智能算力需求将显著提升,智能算力增长速率约通用算力的两倍据IDC和浪潮信息测算,2022年中国通用第力规模达54.5EF1.OPS,预计到2027年通用算力规模将达到117.3EF1.OPSo2022年中国智能算力规模达259.9EF1.OPS,预计到2027年将达到

3、1117.4EF1.OPS02022-2027年期间,中国智能算力规模年复合增长率达33.9%,同期通用算力规模年复合增长率为16.6%.:.A1.服务器需求旺盛从感知智能到生成式智能,人工智能越来越需要依赖“强算法、高算力、大数据”的支持。模型的大小、训练所需的参数量等因素将宜接影响智能涌现的质量,人工智能模型需要的准确性越高,训练该模型所需的计算力就越高。IDC预计,全球人工智能硬件市场(服务器)规模将从2022年的195亿美元增长到2026年的347亿美元,五年年复合增长率达17.3%:在中国,预计2023年中国人工智能服务器市场规模将达到91亿美元,同比增长82.5%,2027年将达到

4、134亿美元,五年年复合增长率达21.8%。二、A1.技术收敛,GPU主宰算力芯片A1.芯片架构众多A1.芯片根据其技术架构,可分为GPU、FPGA.AS1.C及类脑芯片一,同时CPU可执行通用A1.计第。相较于传统的中央处理器(CPU),GPU具有并行计算、高效能和高并发等优势,因此在人工智能、机器学习、数据挖掘等领域得到广泛应用。A1.芯片根据其在网络中的位置可以分为云端A1.芯片、边缘及终端A1.芯片:根据其在实践中的目标,可分为训练芯片和推理芯片。云端主要部署训练芯片和推理芯片,承担训练和推理任务,具体指智能数据分析、模型训练任务和部分对传输带宽要求比高的推理任务;边缘和终端主要部署推

5、理芯片,承担推理任务,需要独立完成数据收集、环境感知、人机交互及部分推理决策控制任务。GPU与深度学习技术相契合GPU设计之初用于对图形进行渲染,需要并行处理海量数据,涉及大量矩阵运算。深度学习依赖于数学和统计学计算,所以图形港染与深度学习有着相似之处,这两种场景都需要处理每秒大量的矩阵乘法运算。GPU拥有数千个内核的处理器,能够并行执行数百万个数学运算。因此GPU完美地与深度学习技术相契合。使用GPU做辅助计算,能够更快地提高A1.的性能。CPU+GPU是人工智能异构计算的主要组合形式异构计第仍然是芯片发展趋势之一。异构计算通过在单一系统中利用不同类型的处理器(如CPU、GPU、ASIC、F

6、PGA.NPU等)协同工作,执行特定任务,以优化性能和效率,更高效地利用不同类型的计算资源,满足不同的计算需求。得益于硬件支持与软件编程、设计方面的优势,CPU+GPU成为了目前应用最广泛的平台。截至2023年10月,中国市场普遍认为“CPU+GPU”的异构方式是人工智能异构计算的主要组合形式。三、“AI信创”驱动,培育国产算力生态GPU行业需跨越CUDA横亘英伟达CUDA已经实现了与算法工程师、芯片客户的强绑定,众多算法工程师已经习惯了一套工具库、一套编程语言,向外迁移存在不习惯等问题。所以很多第力芯片硬件厂商选择了赖容CUDA的路线使硬件能够直接用CUDA调动起来,以降低用户的硬件迁移痛点

7、。兼容CUDA需要巨大时间和成本投入。据集微网,兼容CUDA涉及50个驱动、50个编译器、50个数学库、300个应用层工程师,3-5年的时间。功能的验证,用户的培养需要额外3-5年,每年还要至少开支1000万-3000万元资助外部开发者。从头部A1.厂商布局来看,英伟达竞争者AMD选择兼容CUDA+F1.研原生“两条腿”并行,英伟达客户谷歌、Meta、亚马逊等均已推出自己的A1.芯片。我们认为,国产GPU在起步阶段兼容CUDA生态更容易发展,易于生存。在美国技术封锁的大背景之下,“AI信创”为国产算力芯片提供了市场窗口,远期国产GPU还是需要发展原生生态。国产算力有待提升当下诸多国内本土芯片技

8、术储备和生态能力仍围绕小模型时代的识别式人工智能展开,难以匹配大模型和生成式人工智能发展所需的软件生态、模型框架、性能需求,因此本土人工智能芯片仍需在发展、继承和竞争中成长。在中美脱钩的时代背景下,国产算力芯片正经历“可用”到“好用”的阶段,国产算力芯片整体实力有待提升。从生态成熟度来看,我们认为,华为海思和海光信息有望率先替代英伟达算力芯片。受益于华为ICT行业的领先地位,界腾系列将获得从芯片设计、芯片制造、算力部署、应用生态的全方位支持,有更大概率成为主流国产算力芯片。四、HBM解决GPU内存危机,成为存储下一主战场A1.算力刺激更多存储器用量A1.服务器存储容量倍增,带动存储器需求成长。

9、据TrendForce,A1.服务器需要配置更多DRAM,SSD和HBM等大容量存储以应对口益复杂的大模型所带来的海量数据。当前普通服务器DRAM普遍配置约为500至600GB,而A1.服务器DRAM配置可达1.2至17TB,是普通服务器的二到三倍。此外,相较于一般服务器而言,A1.服务器多增加GPGPU的使用,因此以NVIDIAA10080GB配置4或8张计算,HBM用量约为320640GB.未来在A1.模型逐渐复杂化的趋势下,将刺激更多的存储器用量,并同步带动ServerDRAM.SSD以及HBM的需求成长。HBM解决GPU内存危机处理器的性能按照摩尔定律规划的路线不断飙升,内存所使用的D

10、RAM却从工艺演进中获益很少,性能提升速度远慢于处理器速度,造成了DRAM的性能成为制约计算机性能的一个重要瓶颈,即所谓的“内存墙:HBM成为增加存储器带宽的路径之一,以解决大数据时代下的“内存墙”问题。HBM(HighBandwidthMemOry)即高带宽存储器,按照JEDEC的分类,HBM属于GDDR内存的一种,其通过使用先进的封装方法(如TSV硅通孔技术)垂直堆桎多个DRAM,并与GPU封装在一起。HBM主要优势是在高带宽和低功耗领域,应用场景以配合并行计算的GPU和AS1.C芯片为主。HBM供不应求A1.创造纯增量市场,HBM需求量年增近六成。目前高端A1.服务器GPU搭载HBM已成

11、主流,TrendForce预估2023年全球HBM需求量将年增近六成,来到2.9亿GB,2024年将再成长三成。根据Mordor1.nte1.1.igence,2020年HBM市场价值为10.68亿美元,预计到2026年将达到40.89亿美元,在2021-2026年预测期间的熨合年增长率为25.4%。HBM头部企业SK海力士在2023年7月表示,目前其HBM的销量占比还不足营收1%,但2023年销售额占比有望成长到10%,同时预计在2024年应用于A1.服务器的HBM和DDR5的销量将翻一番。2023年10月,SK海力士表示,已经在2023年出售了明年HBM3和HBM3E的所有产量。五、异构计

12、算时代,先进封装战略地位凸显异构计算时代,先进封装战略地位凸显异构集成(HeterogeneoUSIntegratiOn),即横向和纵向连接多个半导体,可将更多的晶体管装在一个更小的半导体上,准确地说是在更小的半导体封装内,从而提供比其各部分之和更大的功用。CPU+GPU是人工智能异构计算的主要组合形式,英伟达的GraCeHO即er超级芯片通过异构集成CPU、GPU以及存储器,实现芯片更高带宽的互连,能够承担更大的数据集、更熨杂的模型和新的工作负载。先进封装成为突破“摩尔定律”局限的技术。先进封装技术充当着半导体器件与系统之间的桥梁,是实现异构集成的关键技术,因此,这种连接方法变得越来越南要。

13、先进封装技术本身已成为一种系统解决方案,半导体头部设计、制造商均通过此方法,在摩尔定律放缓的时代,从系统层面继续提升芯片性能。顺应A1.算力芯片发展,封装技术持续创新向2020年开始,先进封装进入技术融合期,成为关键的系统级解决方案。不仅需要借助多项技术将各类芯片集成到同一封装内,还需要在整合系统时将多个部分连接至同一模块。A1.计算芯片融合了多项先进封装技术,HBM应用TSV堆置技术获得超高带宽,而为了将HBM和GPU集成,CoWOS封装技术被深度开发。因此,封装技术将成为提供整体系统解决方案的重要手段。海力士判断,未来各公司将依赖封装技术助力其成为半导体行业的领军者。顺应A1.算力芯片发展

14、,封装技术持续创新随着封装技术的发展,近十年中,重新分配层(RD1.)、倒片封装(FIipChip)和硅穿孔(TSV)等封装技术得到了积极广泛的应用,在硅晶圆或芯片堆叠结构晶圆中进行工艺处理,大幅提高了产品的性能和容量。SK海力土凭借业界领先的TSV堆置技术引领了市场发展,这其中包括HBM封装存储器解决方案,以及用于服务器的高密度存储器(HDM)三维堆登技术。同时,海力士持续迭代封装技术,研发了批量回流模制底部填充、混合键合、扇出型晶圆级封装等技术,以进一步提升了HBM的堆叠层数。六、电源技术提升计算能效,背面供电蓄势待发A1.算力对高效电源提出新需求据高性能电源解决方案供应商MPS测算,云计

15、算领域的电源市场规模增长迅速,从2015年8亿美元,至2021年增长四倍,达到40亿美元。云计算模拟电源市场由CPU服务器电路、GPU服务器电路、机架电路构成,市场规模分别为10亿美元、10亿美元、20亿美元。CPU服务器中,CPU供电、存储器供电、Po1.(负载点)供电、eFuse(电子保险丝)市场规模分别为6亿、2.8亿美元、0.6亿美元、0.6亿美元。服务器电源架构转向48V48V宜流供电能够降低服务器配电损耗。据松下测试结果,计算配电路径的电阻为01mQ时的配电损耗,12V时为100W,48V时为6.25W,会出现16倍的计算差异。在各家公司都在积极致力于节省电力消耗中,谷歌公司于20

16、16年率先引入了48V直流供电的手法。算力电路的供电设计拥有较高壁垒典型48V电源架构包含一个AC/DC前端,负责生成48V直流电。该宜流电会被输送至DC/DC变换器,在这里电压被转换成12V中间母线结构。然后将12V母线电压分配至板上多个负载点(Po1.)变换器中,为内核CPU、GPU等提供电源。大多数内核芯片或子电路所需的电压范围为1V-3.3V,电流范围去U为几十亳安至数仃安培。通常,处理从几十毫安到数百安培应用程序的传统方式会采用离散模拟解决方案。离散模拟解决方案的构建块由一个控制器IC和一对外部MC)SFET或一个驱动MC)SFET(DrMOS)IC组成。由于内核芯片的电源轨对时序、电压精度、裕量和检测能力的设计要求非常严格,因此存在较大的设计壁垒。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > IT计算机 > 人工智能

copyright@ 2008-2023 1wenmi网站版权所有

经营许可证编号:宁ICP备2022001189号-1

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。第壹文秘仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第壹文秘网,我们立即给予删除!