【全球热闻】电子行业动态:英伟达发布GH200超级GPU 打开AI算力产业链星辰大海
事件:
5月29日,英伟达 创始人兼CEO 黄仁勋在NVIDIA Computex 2023展前发布会上,正式发布全新GH200 Grace Hopper 超级芯片,以及拥有256个GH200 超级芯片的DGX GH200 超级计算机。
点评:
(资料图片)
超级芯片GH200 已全面投产,谷歌、微软、Meta 将率先获得。GH200超级芯片使用了NVLink-c2c 互联技术,将一颗基于ARM 节能的72 核GraceCPU 和一颗高性能的英伟达H100 GPU、96GB 的HBM3 和512GB的LPDDR5X,通过Chiplet 工艺集成到同一封装,以提供CPU+GPU 一致内存模型,从而不再需要传统的CPU 至GPU PCIe 连接。GH200 超级芯片提供了高达900GB/s 的总带宽,为某些内存受限的工作负载提供了巨大优势。相较PCIe5,该芯片将GPU 和CPU 之间的带宽提高了7 倍,将互连功耗减少了5 倍以上。黄仁勋表示,GH200 Grace Hopper 超级芯片已全面投产,将可为运行复杂的AI 和高性能计算工作负载提供动力。
谷歌云、Meta 和微软将率先获得GH200。
全新NVIDIA Helios 超算年底推出,未来GPU 数据中心有望替代现有CPU 数据中心。DGX GH200 是将256 块GH200 超级芯片组成的超算,拥有高达1EFLOP 的算力,以及144TB 的共享内存(比上代DGX A100多了近500 倍)。此外,英伟达表示正在建造自己的大型AI 超级计算机NVIDIA Helios。该超算将配备4 个DGX GH200,每个都将通过NVIDIAQuantum-2 InfiniBand 400 Gb / s 网络互连,以提高训练大型AI 模型的数据吞吐量。未来,GPU 有望实现对目前CPU 的替代。根据英伟达的配置,以1000 万美金成本可建置1 个有960 颗CPU 的数据中心,但它需要11GWh 的功率,处理1X 大模型的数据量。但同样成本,可建置1 个有48 个GPU 的数据中心,只需3.2GWh 的功耗,并可处理44X 大模型的数据量。
投资建议与盈利预测:我们认为该事件利好:1)算力芯片:建议关注:
寒武纪、海光信息、景嘉微(数字经济组覆盖)、龙芯中科。2)Serdes:
DGX GH200 通过NVIDIA NVLink、NVswitch 互连256 个GH200 超级芯片,共计采用96 组L1 NVLink Switch、36 组L2 NVLink Switch,需大量采用高速Serdes IP。建议关注:芯原股份可独家销售Alphawave 的SerDes IP。龙迅股份。3)PCB:AI 算力芯片加速卡板随着层数、材质、加工难度的提升,带来价值量提升。建议关注:胜宏科技、沪电股份。
4)HBM:DGX H100 服务器中,平均单颗H100 芯片对应256GB 内存,以及80GB 的HBM。GH200 单颗芯片性能提升显著,需要512GBLPDDR5 内存+96GB 的HBM 显存。建议关注:深科技。
风险提示:产业化进度不及预期;需求不及预期;行业竞争加剧;