您的位置:首页>聚焦>房产 >内容

英伟达推出史上最强AI芯片H200:推理性能提升90%,无缘中国市场

2023-11-14 17:20:52来源:
导读 原标题:英伟达推出史上最强AI芯片H200:推理性能提升90%,无缘中国市场出品 | 搜狐科技作者 | 梁昌均在全球算力荒的情况下,AI芯片巨...

原标题:英伟达推出史上最强AI芯片H200:推理性能提升90%,无缘中国市场

出品 | 搜狐科技

作者 | 梁昌均

在全球算力荒的情况下,AI芯片巨头英伟达加速算力竞赛。当地时间11月13日,英伟达宣布推出新一代人工智能芯片H200,称其是目前世界“最强”的AI芯片。

H200此次升级主要体现在带宽更高、容量更大的内存,能以每秒4.8TB的速度提供141GB的内存,而其目前最先进的H100的带宽和容量分别为3.35TB和80GB。这将提升大模型在推理方面的表现,并有助于提升高性能计算应用的计算能力。

英伟达预计,H200将在明年二季度开始发货,谷歌、微软、甲骨文等科技巨头将会率先实现首批部署。但毫无疑问,H200将无缘中国市场。

英伟达最强AI芯片,推理性能提升90%

H200是英伟达当前用于训练最先进大语言模型H100芯片的升级产品,它基于英伟达Hopper架构,配备具有先进内存的NVIDIA H200 Tensor Core GPU,可处理生成式AI和高性能计算工作负载的大量数据。

H200还是英伟达第一款使用HBM3e内存的芯片。HBM3E是最新一代的内存规格,可以满足用于AI存储必备的速度,也在发热控制和客户使用便利性等所有方面达到全球最高水平,存储巨头SK海力士、美光等都在布局。

借助内存速度更快、容量更大的HBM3e,英伟达H200以每秒4.8TB的速度提供141GB的内存,与A100相比,容量几乎是其两倍,带宽也提升大43%,从而加速生成式AI和大语言模型,提高高性能计算(HPC)的工作负载。

内存带宽对HPC应用程序至关重要,因为它可以实现更快的数据传输,减少复杂的处理瓶颈。英伟达表示,对模拟、科学研究和人工智能等内存密集型HPC应用,H200更高的内存带宽可确保高效地访问和操作数据,与CPU相比速度最多可加快110倍。

据英伟达测算,借助H200,1750亿参数的GPT-3的推理速度是H100的1.6倍,700亿参数的Llama2大模型的推理速度则是H100的1.9倍,而高性能仿真计算速度则达到A100的2倍。总体来看,H200由于更强大的内存,更适用于推理,在其用于推理或生成问题答案时,性能较H100提高60%至90%。

此外,H200和H100两款芯片可以互相兼容。英伟达称,这意味着已经在使用H100进行训练的人工智能公司,不需要改变他们的服务器系统或软件来适应H200。

英伟达大规模与高性能计算副总裁Ian Buck表示,要利用生成式人工智能和高性能计算应用创造智能,必须使用大型、快速的GPU显存,来高速高效地处理海量数据。借助H200,业界领先的端到端人工智能超算平台可以更快解决一些世界上最重要的挑战。

除H200之外,英伟达还发布了HGX H200 平台,这是使用较新加速器的8路 HGX H100 的更新版本。而当H200与英伟达Grace CPU搭配使用时,就组成了性能更为强大的超级计算机GH200 Grace Hopper,其专为大型HPC和AI应用的计算而设计。

英伟达称,在H200加持之下,GH200超级芯片将为全球各地的超级计算中心提供总计约200 Exaflops的AI算力,用以推动科学创新。德国尤里希超级计算中心、筑波大学和东京大学共同成立的日本先进高性能计算联合中心、德克萨斯高级计算中心、诺伊大学香槟分校的美国国家超级计算应用中心等都将利用GH200超级芯片提升计算能力。

此外,英伟达还公布了未来的产品路线图,将使用同一构架设计三款芯片,在明年和后年会继续推出B100和X100,性能有望进一步提升。

明年二季度开始出货,加速与AMD、英特尔竞赛

英伟达表示,H200可以部署在各种类型的数据中心,包括本地、云、混合云和边缘,其全球生态系统合作伙伴服务器制造商(如华硕、戴尔、惠普、联想等)可以利用H200更新其现有系统。

该公司预计,明年第二季度开始出货搭载H200的系统,包括服务器制造商和云服务提供商。除英伟达自己投资的CoreWeave、Lambda和Vultr外,亚马逊云、谷歌云、微软Azure和甲骨文云基础设施将成为首批部署H200的厂商。但显然,H200无法面向中国市场销售,这也将影响其未来销售规模的增长。

目前,全球科技巨头都在囤算力,H100/A100成为抢手货,甚至有公司将其作为融资的抵押物。市场数据显示,今年以来,H100单价高达2.5万至4万美元,而据美国金融机构Raymond James透露,H100芯片成本仅3320美元。目前,英伟达还未公布H200价格。

由于AI大模型往往至少需要数千块GPU,上千亿参数的更大模型则需要更多。马斯克此期称,GPT-5可能需要3万-5万块H100,而摩根士丹利的说法是2.5万个。正是高价格和高需求的同振,让H100成为有史以来最赚钱的一种芯片。

这也推动英伟达业绩暴涨。今年第二季度,英伟达实现营收135亿美元,同比增长101%;净利润达62亿美元,同比更是暴增843%。该公司还预计,三季度将实现营收160亿美元,同比继续增长170%,保持连续两个季度翻倍。

英伟达股价也因此暴涨,成为全球首家超过万亿美元市值的芯片公司,年内股价上涨230%。最新交易日,英伟达股价报486.2美元,市值达1.2万亿美元,是AMD+英特尔市值之和的3倍多。

英伟达推出的H200还被视为应对竞争的最新武器。今年6月,它的老对手AMD发布MI300X系列芯片,最高支持192GB的HBM3内存,内存带宽为5.2TB/s,分别是英伟达H100的2.4倍和1.6倍。这显然给英伟达也带来压力,而此次发布的H200在内存和宽带上仍不及MI300X。

AMD CEO苏姿丰在11月初透露,MI300系列芯片将在未来几周开始出货,并已获得强劲的早期订购,包括大型云计算客户。她预计,该芯片会在四季度带来4亿美元的收入,并有望成为公司史上销售额最快达到10亿美元的产品,2024年全年将超20亿美元。

英特尔同样瞄准了AI算力市场,计划将在明年推出第三代Gaudi AI芯片,并将内存容量从目前的96GB增加到144GB。英特尔Max系列显卡目前内存容量最高为128GB,未来也将继续提升该系列芯片容量。

可以说,面对AI算力市场强劲的需求和市场前景,英伟达、AMD和英特尔等老对手又开启了新竞争。目前,英伟达仍垄断超过90%的AI算力市场,而它的老对手们显然不会让其一家独大。随着更多更强性能产品的推出,这场算力军备竞赛将会持续。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章