电子元器件行业报告:HBM芯片量价齐升,看好存储芯片与PCB领域

[复制链接]
查看: 14|回复: 0

15

主题

15

帖子

49

积分

新手上路

Rank: 1

积分
49
刘航 发表于 2023-2-17 00:00:00 | 显示全部楼层 |阅读模式
事件:
据韩国经济日报报道,受益于ChatGPT快速发展,三星、SK海力士高带宽内存(highbandwidthmemory,HBM)芯片接单量大增。
点评:
ChatGPT训练量大幅提升,最底层基础设施需要大算力芯片和内存芯片。
ChatGPT经历了3次迭代,参数量从1.17亿增加到1750亿,训练量大幅提升。
ChatGPT产业链大致可分为三层,分别为应用层、大模型层和芯片层。OpenAI开发的是GPT系列大模型,其外还有很多使用ChatGPT大模型生成AI虚拟人或内容的应用层公司。ChatGPT运行的三个条件包括训练数据、模型算法和高算力,高算力的底层基础设施是完成对海量数据处理、训练的基础,而最底层的是英伟达等大算力芯片与内存芯片。
HBM是基于3D堆叠工艺的DRAM内存芯片技术,大幅提升数据处理速度,ChatGPT发展带动第三代HBM报价大涨。HBM是一种基于3D堆叠工艺的DRAM内存芯片,被安装在GPU、网络交换设备、AI加速器及高效能服务器上。HBM能大幅提高数据处理速度,每瓦带宽比GDDR5高出3倍还多,且HBM比GDDR5节省了94%的表面积。以HBM为代表的超高带宽内存技术生成类模型也会加速HBM内存进一步增大容量和增大带宽。第三代HBM报价大涨,约为效能最高的DRAM产品的五倍。
ChatGPT等基于自然语言技术的交互式AI应用发展有利于推动AI由软件向硬件切换,内存芯片和PCB或将受益。ChatGPT这类生成式AI应用需要在海量的训练数据中进行学习,因此AI模型需要存储大量的图片和音频信息。另外,AI应用必须具备快速处理数据的能力,才能向用户实时输出AI计算结果,对于内存芯片的数据传输速度提出了更高要求。受益于ChatGPT的应用快速发展,AI产业化将由软件向硬件切换。而服务器和网络交换设备对于PCB有直接的需求,PCB作为芯片载体,使用量也有望加速增长。
投资策略:ChatGPT催生AI新需求,我们认为硬件有望先行,算力+存储芯片或将直接受益。大规模模型训练、海量数据共同成就ChatGPT。高算力的底层基础设施是完成对海量数据处理、训练的基础。海量数据汇集也为AI模型提供强大的数据集支撑。提升算力主要是GPU和FPGA,GPU受益标的:景嘉微、好利科技;存储容量提升相关受益标的:通富微电、江波龙、东芯股份、佰维存储;PCB领域相关受益标的:胜宏科技、深南电路、兴森科技。
【点击查看PDF原文】
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Copyright   ©2015-2023  中国最佳CEO  技术支持:腾讯云