鲁东网 - 鲁东生活门户
新闻检索:
当前位置: 鲁东网 -> 新闻

年末产能翻倍!存储龙头拟扩产AI芯片“标配”刚获英伟达下一代样品请求

栏目:新闻    时间:2023-06-17 08:41   来源: 金融界   阅读量:6166   

业内人士表示,扩产焦点在于HBM3,SK海力士正在准备投资后段工艺设备,将扩建封装HBM3的利川工厂。预计到今年年末,后段工艺设备规模将增加近一倍。

据台湾电子时报援引韩媒报道称,由于AI半导体需求增加,存储龙头之一的SK海力士正在扩建HBM产线,计划将HBM产能翻倍。

业内人士表示,扩产焦点在于HBM3,SK海力士正在准备投资后段工艺设备,将扩建封装HBM3的利川工厂。预计到今年年末,后段工艺设备规模将增加近一倍。

值得一提的是,SK海力士在去年6月已率先量产了DRAM HBM3,且已供货英伟达的H100。

另据Business Korea报道显示,英伟达已要求SK 海力士提供HBM3E样品,后者正在准备出货样品。

HBM3E是DRAM HBM3的下一代产品。目前,SK海力士正在开发HBM3E,目标明年上半年量产。通常在产品开发完成后,样品会提供给客户进行认证。SK hynix副总裁Park Myung-soo今年4月曾透露,公司正在准备下半年的8Gbps HBM3E产品样品。

之前在半导体寒冬中,SK海力士已决定缩减今年设备投资规模。但即便是在这种情况下,公司也没有放弃热门产品的机会。在今年Q1业绩说明会上,SK海力士表示,今年投资将同比减少50%,公司将执行投资DDR5、LPDDR5、HBM3等产品生产,以应对下半年及明年的需求增长。

▌主流AI训练芯片“标配” HBM或迎量价齐升

2023年开年后三星、SK海力士的HBM订单快速增加,之前另有消息称HBM3较DRAM价格上涨5倍。

随着AI技术不断发展,AI训练、推理所需计算量呈指数级增长,2012年至今计算量已扩大30万倍。处理AI大模型的海量数据,需要宽广的传输“高速公路”即带宽来吞吐数据。

HBM通过垂直连接多个DRAM,显著提高数据处理速度。它们与CPU、GPU协同工作,可以极大提高服务器性能。其带宽相比DRAM大幅提升,例如SK海力士的HBM3产品带宽高达819GB/s。同时,得益于TSV技术,HBM的芯片面积较GDDR大幅节省。

国盛证券指出,HBM最适用于AI训练、推理的存储芯片。受AI服务器增长拉动,HBM需求有望在2027年增长至超过6000万片。Omdia则预计,2025年HBM市场规模可达25亿美元。

广发证券也补充称,HBM方案目前已演进为高性能计算领域扩展高带宽的主流方案,并逐渐成为主流AI训练芯片的标配。

分析师进一步飙升,AIGC时代为HBM带来的需求增量主要体现在两方面:

一方面,单颗GPU需要配置的单个HBM的Die层数增加、HBM个数增加;另一方面,大模型训练需求提升拉动对AI服务器和AI芯片需求,HBM在2023年将需求明显增加,价格也随之提升。

韩国证券分析师认为,在HBM3、DDR5带动下,存储芯片价格将在下半年出现反弹。

A股中, 雅克科技 为电子材料平台型公司,是SK海力士前驱体核心供应商。另外,分析师建议关注 深科技(行情000021,诊股) 、 太极实业(行情600667,诊股) 、 长电科技(行情600584,诊股) 及 通富微电(行情002156,诊股) 。

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。