(资料图)
英伟达推出下一代AI 超级芯片GH200。美国当地时间 8 月 8 日早上,英伟达创始人、CEO 黄仁勋在世界计算机图形会议 SIGGRAPH 2023 上进行了主题演讲。在本次演讲中,英伟达宣布推出了下一代NVIDIA GH200 Grace Hopper 超级芯片,并配备了全球首发的HBM3e 内存。GH200 由72 核Grace CPU 和4 PFLOPS 的Hopper GPU 组成,内存容量高达141GB,提供每秒5TB 的带宽。通过将两个GH200 芯片连接到一起,可以得到性能更强的计算服务器。与前一代相比,双配置的内存容量是之前的 3.5 倍,带宽是之前的 3 倍。 GH200 芯片有望于2024 年Q2末投入生产。
芯片升级带来更高的能效,在同等预算和同等工作负载条件下都较以往以CPU 为主的数据中心有很大提升。在过去60 年里,通用计算是相对主流的,用1 亿美元可以打造8800 块x86 CPU 组成的数据中心,功耗是5MW。而在当下以及未来的加速计算和AI 计算时代,用同样的1 亿美元,可以打造由2500 块GH200 芯片组成的数据中心,功耗仅有3MW,并且其AI 推理性能将达到上述CPU 系统的12 倍,能效达到20 倍。如果要达到和1 亿美元的x86 CPU 数据中心相同的AI 性能,仅需要210 块GH200 组成的计算平台即可,功耗仅为0.26MW,成本也只需800 万美元。
英伟达仍旧牢牢占据AI 基础设施领域的主导地位。自ChatGPT 引领生成式AI 浪潮以来,NVIDIA GPU 已成为支持生成式AI 和大模型训练的大算力AI 芯片首选。随着此次GH200 超级AI 芯片的升级以及多款GPU、服务器产品的推出,英伟达展现了在AI 基础设施领域的绝对主导地位。
英伟达持续拓展AI 生态,与Hugging Face 合作、推出AI Workbench 和AIEnterprise 4.0。英伟达将为Hugging Face 上构建大型语言模型和其他高级AI 应用程序的开发人员提供生成式AI 的超级计算能力,通过Hugging Face 平台可以直接在NVIDIA DGX Cloud 上训练模型。AI Workbench 是一个统一易用的工作空间,帮助开发人员快速在PC 或工作站上创建、测试和微调模型,并无缝扩展到几乎任何数据中心、公有云或NVIDIA DGX Cloud 上。 NVIDIA AI Enterprise 4.0 新支持了多款软件和工具,有助于简化生成式AI 部署。
英伟达成为AI 大模型开发的首选,GPU 短缺问题短期难解决。英伟达在AI 芯片领域的长期积累使其在生成式AI 浪潮中占据了主导地位,英伟达的GPU 也成为了各大科技公司争相采购的对象。但GPU 的供应瓶颈限制了人工智能领域的快速发展,NVIDIA H100 正面临有史以来最严重的缺货。根据GPU Utils 的测算,目前市场上对H100 的需求在43.2 万张左右,这个数字还没有包括中国区特供的H800,国内各家大模型厂商对H800 的需求也居高不下。英伟达目前也在积极提升产能,预计算力供应短缺的情况可能还会持续一段时间。
我们认为,算力板块有望维持较高景气度,算力产业链值得重视。建议关注海光信息(688041,买入)、浪潮信息(000977,未评级)、中科曙光(603019,买入)、拓维信息(002261,未评级)、优刻得-W(688158,未评级)、亚康股份(301085,未评级)等。
风险提示
技术落地不及预期;政策监管风险;芯片产能不足风险