您的位置:首页 >> 行业研究 >> 文章正文

电子行业点评:AMD召开首映会推出MI300系列产品,打造AI全栈软硬件解决方案

加入日期:2023-6-15 8:19:29

  顶尖财经网(www.58188.com)2023-6-15 8:19:29讯:

(以下内容从平安证券《电子行业点评:AMD召开首映会推出MI300系列产品,打造AI全栈软硬件解决方案》研报附件原文摘录)
事项:
14日凌晨,AMD举办了“AMD数据中心与人工智能技术首映会”,并在首映会上展示了AI处理器系列产品——Instinct MI300系列。
平安观点:
公司推出了针对AI的处理器芯片MI300A和MI300X。公司最先公布的是MI300A图形处理器芯片,这是一款为AI和HPC(高性能计算)打造的APU加速芯片,以更好的提升计算和内存使用效率。该图形芯片拥有13个小芯片,包括24个Zen 4 CPU核心,1个CDNA 3图形引擎和128GBHBM3内存,晶体管数量达到1460亿个,CPU和GPU共享内存,该款产品应用了较多的3D堆叠技术。相比此前的MI250,MI300A可以提供超过8倍的性能和5倍的处理效率。从进度来看,公司用CPU+GPU异构的MI300A正处在样品开发阶段,预计3季度将正式销售。
除了MI300之外,公司还推出了针对大语言模型进行优化的版本——MI300X。该款芯片封装了12个不同的芯粒,8个5nm的GPU和多个6nm的I/O芯粒。该款芯片内存达到了192GB,内存带宽为5.2TB/s,InfinityFabric带宽为896GB/s,晶体管达到1530亿个。MI300X可以运行比英伟达H100更大的模型,单块芯片可运行800亿个参数的大模型。此次首映会上,公司演示了拥有400亿参数的Hugging Face AI 模型的写诗应用。相比H100,MI300X可以提供2.4倍的HBM(高带宽内存)密度,以及1.6倍的HBM带宽。公司称,随着公司芯片内存的增加,在大模型参数增长的过程中,需要的GPU数量也不会线性增加;如果模型参数量越大,公司的MI300X节省CPU的优势就越为明显,相应可以降低用户的使用成本。同时,AMD还发布了基于MI300X打造的计算平台。该平台将8个MI300X芯片集成在一块服务器主板上,可提供总计1.5TB的HBM3内存。MI300X平台相关样品有望在3季度完成样品开发,四季度有希望开始出货。
随着人工智能大模型的快速发展,其对算力和内存的需求快速增长,AMD正在顺应这一趋势,相对公司自身的前期产品以及竞品,此次发布的芯片或平台较大幅度的提升了产品性能和能效。按照公司的预测,2023年数据中心AI加速器的市场将达到300亿美元左右,到2027年将超过1500亿美元,复合年增长率超过50%。这个市场上,公司最大的竞争对手是英伟达,除了硬件性能追赶之外,公司还需要在软件平台上下更多的功夫,毕竟生态强健、功能完善和易用的软件平台也是用户的重要关注点。此次发布会上,对标英伟达的CUDA,公司也介绍了自己的AI软件平台“ROCm”,生态也在持续搭建中。 投资建议:AIGC的快速发展,带来了算力需求的快速提升,面对如此增长迅速和潜力巨大的市场,AMD也是积极在该领域持续发力。此次MI300系列产品的发布,也会进一步补强其AI和数据中心业务板块的产品线,避免被这一轮的大潮所抛弃。产品发布是第一步,面对实力强劲的竞争对手英伟达,拓展标杆客户将是AMD后续发展的重要任务。对国内产业链来讲,AMD由于采用了先进封装和高带宽内存技术,可能能够带动国内相应领域的技术革新,甚至有部分厂商可能有希望直接参与。相关厂商如通富微电、恒烁股份、甬矽电子等标的,有希望在这个赛道上走的更远,建议关注。
风险提示:1)地缘政治带来的更为剧烈的科技博弈。由于美国的技术限制,可能造成中国在软硬件环节的差距持续拉大,国内AI产业发展可能停滞。2)国内企业可能参与的程度不深。由于国内在先进封装等领域的技术也正在追赶之中,可能直接从AMD芯片供应链环节中受益的可能性或者受益程度不高。3)竞争风险。由于AMD在AI加速芯片方面属于第二梯队,可能受到英伟达“赢家通吃”的压制,后续生态参与企业业务拓展可能不及预期





编辑: 来源: