久冉科技

财经资讯

信达证券:HBM3E量产在即 关注国产HBM突破和产业链受益

时间:2024-03-11 15:51 阅读:

  信达证券发布研究报告称,近日,美光宣布已开始量产其HBM3E高带宽内存解决方案。英伟达H200TensorCoreGPU将采用美光8层堆叠的24GB容量HBM3E内存,并于2024年第二季度开始出货。该行认为受益于AI算力需求的强劲推动,HBM或将成为存储芯片市场复苏的主要驱动力,同时国内存储厂商也加速产品布局和技术突破,相关产业链上下游的厂商有望加速受益。

  海外大厂HBM3E量产在即。

  近日,美光宣布已开始量产其HBM3E高带宽内存解决方案。英伟达H200TensorCoreGPU将采用美光8层堆叠的24GB容量HBM3E内存,并于2024年第二季度开始出货。美光HBM3E引脚速率超过9.2Gb/s,提供超过1.2TB/s的内存带宽。与HBM3相比,HBM3E将数据传输速率和峰值内存带宽提高了44%。三星发布首款36GBHBM3E12HDRAM,目前为三星容量最大的HBM。三星HBM3E12H支持全天候最高带宽达1280GB/s,产品容量也达到了36GB。相比三星8层堆叠的HBM38H,HBM3E12H在带宽和容量上大幅提升超过50%。相比HBM38H,HBM3E12H搭载于人工智能应用后,公司预计人工智能训练平均速度可提升34%,同时推理服务用户数量也可增加超过11.5倍。SK海力士于1月中旬正式结束了HBM3E的开发工作,并顺利完成英伟达历时半年的性能评估,计划于3月开始大规模生产HBM3E产品,这批HBM3E将用于英伟达下一代Blackwell系列的AI芯片旗舰产品B100上,而英伟达则计划于2024年第二季度末或第三季度初推出该系列产品。

  国内存储厂商入局HBM市场。

  根据采招网,近日,武汉新芯发布

  AI浪潮驱动,HBM先进封装、设备材料产业链环节持续受益。

  HBM制造工艺包括TSV、Bumping和堆叠等工艺环节。HBM是由多个DRAMdie堆叠而成,利用硅通孔和微凸块将die之间相连接,多层DRAMdie再与最下层的Basedie连接,然后通过凸块与硅中阶层互联。HBM与GPU、CPU或ASIC共同铺设在硅中阶层上,通过CoWoS等2.5D封装工艺相互连接,硅中介层通过CuBump连接至封装基板上,最后封装基板再通过锡球与下方的PCB基板相连。根据全球半导体观察,目前HBM存储芯片的整体良率在65%左右,HBM良率的高低主要受到其堆叠架构复杂性的影响,这涉及到多层次的内存结构和作为各层连接之用的直通TSV技术。这些复杂技术增加了制程缺陷的风险,可能导致良率低于设计较简单的内存产品。因此存储大厂纷纷加码HBM先进封装,提升HBM良率并降低功耗。此外,根据CFM,SK海力士拟将新一代HBM4堆栈直接放置在处理器上,通过3D堆叠的形式进一步提高I/O数量。