AI超级芯片再“上新”

最新信息

AI超级芯片再“上新”
2023-08-09 17:31:00

K图 NVDA_0]
  北京时间8月8日晚,英伟达创始人兼CEO黄仁勋在计算机图形界顶级会议SIGGRAPH上发表主题演讲。英伟达宣布推出下一代NVIDIA GH200 Grace Hopper平台,全新Grace Hopper超级芯片将于2024年第二季投产。

  这是世界上第一个配备HBM3e内存的GPU芯片。HBM3e内存将使下一代GH200运行AI模型的速度比当前快3.5倍。
  今年以来,半导体下行周期中,英伟达用于训练AI大模型的GPU芯片却供不应求,生成式AI浪潮将英伟达推向了万亿美元市值。回过头来,英特尔、AMD等芯片巨头也快速转向AI训练需求。面对目前AI芯片赛道上一家独大、仍在一路狂奔的英伟达,他们能赶上吗?
英伟达推出更强AI超级芯片
  下一代NVIDIA GH200 Grace Hopper平台基于全新Grace Hopper超级芯片,配备全球首款HBM3e处理器,专门服务于加速计算和生成式AI。
  HBM3e内存将使下一代GH200运行AI模型的速度比当前快3.5倍。与当前一代产品相比,双配置的内存容量增加了3.5倍,带宽增加了3倍。
  该新平台旨在处理世界上最复杂的生成式人工智能工作负载,涵盖大型语言模型、推荐系统和矢量数据库,将提供多种配置。
  黄仁勋表示:“为了满足生成式AI不断增长的需求,数据中心需要具有特殊需求的加速计算平台。”“新的GH200 Grace Hopper超级芯片平台提供了卓越的内存技术和带宽,从而提高吞吐量;拥有可以在整个数据中心轻松部署的服务器设计。”
  今年5月底,英伟达宣布首代GH200 Grace Hopper超级芯片全面投产,将为全球各地即将上线的系统提供运行复杂AI和HPC工作负载所需的动力。
  英伟达加速计算副总裁Ian Buck表示:“生成式AI正在迅速带来业务变革,解锁医疗、金融、商业服务等行业的新机遇并加速这些行业的研发工作。随着Grace Hopper超级芯片的全面投产,全球的制造商很快将会提供企业使用专有数据构建和部署生成式AI应用所需的加速基础设施。”
  不过,英伟达尚未透露新一代超级芯片GH200的价格。
AI算力供不应求
AMD、英特尔入局分羹
  今年以来,ChatGPT等各类大模型不断推出,这些大模型训练需要大量的AI芯片,拉升英伟达AI芯片出货,也助推英伟达总市值登上1万亿美元。截至8月8日美股收盘后,英伟达总市值超1.10万亿美元。
  英伟达H100、A800等芯片供不应求,价格持续上涨,记者在某电商平台看到A800芯片价格已超10万元。
  黄仁勋曾放言:CPU已经是过去式,而GPU才是未来。据TrendForce集邦咨询研报,预计AI芯片2023年出货量将增长46%。英伟达GPU是AI服务器市场搭载主流,市占率约60%到70%。
  韦德布什证券公司(Wedbush Securities)董事总经理兼高级股票研究分析师Dan Ives表示,就规模、范围和整合数据的能力而言,英伟达几乎是赛道上唯一的竞争者。
  但显然,对于生成式AI的巨大机遇,其他暂时黯然失色的芯片巨头也势必想要分一杯羹。
  英特尔研究院副总裁、英特尔中国研究院院长宋继强近日表示:“在这一波大模型浪潮当中,什么样的硬件更好并没有定论。”他认为,GPU并非大模型唯一的硬件选择,半导体厂商更重要的战场在软件生态上。芯片可能花两三年时间就做出来了,但是要打造芯片生态需要花两倍甚至三倍的时间。英特尔的开源生态oneAPI比闭源的英伟达CUDA发展可能更快。
  今年6月,AMD举行了新品发布会,发布了面向下一代数据中心的APU加速卡产品Instinct MI300。这颗芯片将CPU、GPU和内存全部封装为一体,从而大幅缩短了DDR内存行程和CPU-GPU PCIe行程,从而大幅提高了其性能和效率。
  Instinct MI300将于2023年下半年上市。AMD称Instinct MI300可带来MI250加速卡8倍的AI性能和5倍的每瓦性能提升(基于稀疏性FP8基准测试),可以将ChatGPT和DALL-E等超大型AI模型的训练时间从几个月减少到几周,从而节省数百万美元的电费。
(文章来源:上海证券报)
免责申明: 本站部分内容转载自国内知名媒体,如有侵权请联系客服删除。

AI超级芯片再“上新”

sitemap.xml sitemap2.xml sitemap3.xml sitemap4.xml