如何看待AMD发布Instinct MI300X GPUAMD芯片笔记本?是否在大模型时代威胁Nvidia地位?

国金证券:AMD发布数据中心AI芯片MI300 看好人工智能带来电子行业的发展机遇国金证券发布研究报告称,持续看好人工智能成为未来15年最大的科技变革,人工智能的发展将重塑电子半导体基础设施,海量数据的收集、清洗、传输、训练以及推理需求,将带来算力和网络的迭代升级,利好AI数据中心及边缘高速运算大量使用的CPU/GPU/FPGA/ASIC,HBM存储器,3DNAND,DDR5,以太网PHY芯片,电源管理芯片,PCB/CCL,光芯片及光模块。根据PrecedenceResearch的数据,2022年全球人工智能芯片市场规模为168.6亿美元,22-32年CAGR有望达29.7%。看好人工智能加速发展对电子行业带来的发展新机遇,细分板块有望持续受益。重点推荐:AMD(AMD.US)、通富微电(002156.SZ)、中际旭创(300308.SZ)、新易盛(300502.SZ)、源杰科技(688498.SH)。事件:6月14日,AMD举行数据中心和AI技术首映会议,AMD展示了新产品以及在数据中心、人工智能以及高性能计算等领域解决方案的发展趋势。会上,AMD发布了InstinctMI300A(APU)、InstinctMI300X(GPU)、具备3DV-Cache技术的EPYCGenoa-X、定位云计算场景的EPYCBergamo、针对电信和边缘工作负载的EPYCSienna以及数据中心DPU、智能网卡等一系列新产品。国金证券主要观点如下:InstinctMI300A为AMD首个集成24个Zen4CPU核心、CNDA3架构GPU核心以及128GBHBM3的APU,被认为在性能上有望与英伟达的GraceHopper相媲美。MI300A在设计上采用3D堆叠和Chiplet设计,配备了9个基于5nm制程的小芯片(Zen4通常为8核Die,因此该行推测9个小芯片为3个CPU+6个GPU的配置),9个小芯片被堆叠在4个基于6nm制程的小芯片之上,其晶体管总数高达1460亿,多于英伟达H100的800亿,是AMD目前生产的最大规模芯片。在性能表现上,与上一代InstinctMI250相比,InstinctMI300A进行人工智能训练的表现(TFLOPS)将成长8倍,能效表现(TFLOPS/watt)将成长5倍,MI300A已经开始推出样品。InstinctMI300X集成了12个5nm的小芯片,提供了192GB的HBM3、5.2TB/s的带宽,晶体管数量高达1530亿。MI300X提供的HBM密度是英伟达H100的2.4倍,HBM带宽是H100的1.6倍,意味着在MI300X上可以训练比H100更大的模型,单张加速卡可运行一个400亿参数的模型。AMD还推出了Instinct训练平台,内置8个MI300X,提供总计1.5TB的HBM3内存,MI300X和Instinct训练平台将于23Q3开始推出样品。EPYCGenoa-X为带有3DV-Cache服务器处理器,Genoa-X最高为96Zen4核心,具备超大3DV-Cache缓存,总L3缓存达1.1GB。相较于Intel80核的至强处理器,Genoa-X在各应用场景的表现提升了2.2-2.9倍不等。EPYCBergamo为定位于多核心场景的云原生处理器,具备128个Zen4c核心,820亿晶体管数量,基于最高能效而非最高性能设计。Zen4c核心保留了与Zen4类似的设计,架构指令集一致,同样基于5nm制程设计,但是单核心面积缩小了35%,并通过3DV-Cache技术使得CCD内的核心数量从8个翻倍到16个,总核心数量从Genoa的96个成长到128个。Genoa针对更高的主频和性能而设计,而Bergamo针对更高量的工作负载而设计,更适配终端厂商云计算业务场景中高密度计算的需求。风险提示:人工智能技术迭代不如预期;2023年海外主要经济体陷入衰退预期;美国对华制裁加剧;AI各终端市场持续萎靡。
英伟达的护城河在于cuda架构,搞ai的计算很多都是用cuda加速,而且因为一开始许多研究者用这个cuda写了很多包,所以后来人只能接着用cuda进行计算。或许AMD游戏领域能跟英伟达掰手腕,当然我也希望游戏佬别给皮衣黄送钱了,瞧瞧游戏卡都砍成什么样了,打游戏完全可以试试AMD,Intel的显卡。但是要想在AI计算方面反超,首先要让研究者使用他的并行计算架构才行,只有建立了自己的底层生态,之后的人才会选择使用AMD显卡训练,这样才能打倒英伟达的垄断。

我要回帖

更多关于 AMD芯片笔记本 的文章

 

随机推荐