仪器网

欢迎您: 免费注册 仪器双拼网址:www.yiqi.com
首页-资讯-资料-产品-求购-招标-品牌-展会-行业应用-社区-供应商手机版
官方微信
仪器网资讯中心
仪器网/ 资讯中心/性能飙升,英伟达发布史上最强AI芯片H200!

性能飙升,英伟达发布史上最强AI芯片H200!

2023-11-25 10:01:43  来源:内容来源于网络 浏览量:62次
【导读】11月13日,在2023年全球超算大会上,英伟达宣布推出HGX H200。该芯片将超越英伟达目前的顶级AI芯片H100,成为最强人工智能芯片。


11月13日,在2023年全球超算大会上,英伟达宣布推出HGX H200。该芯片将超越英伟达20223月发布的H100,成为最强人工智能芯片。
H200新芯片是在H100基础上的一次大升级,基于英伟达Hopper架构,配备英伟达H200 Tensor Core GPU和高级内存,可处理生成AI和高性能计算工作负载的海量数据。预计将于明年二季度开始向全球供货。


01 首款提供HBM3E的GPU


与前一代A100H100相比,H200最大的变化就是内存,这也是芯片中最昂贵的部分之一。

H200是首款提供HBM3E的GPU,HBM3E是更快、更大的内存,可加速生成式AI和大型语言模型,同时推进HPC工作负载的科学计算。借助HBM3E,英伟达H200每秒速度达4.8 TB,内存为141GB。显著高于H100 3.35TB每秒的带宽,和80GB内存(A100/H100)。
HBM3E是HBM(高带宽存储器)的扩展版本,采用了垂直互连多个DRAM芯片的设计。相较于传统的DRAM产品,HBM3E在数据处理速度上显著提高。
以SK海力士为例,据其公布的数据显示,旗下HBM3E带宽可达1.5 TB / s,相当于在一秒钟内即可处理230多部5GB大小的高清电影。这种高性能的数据处理能力使得HBM3E成为人工智能内存产品当中的关键规格。
据悉,英伟达与SK海力士在高带宽内存方面的合作已有很长时间。SK海力士早在今年8月份时就透露,两家公司将在HBM3E领域持续合作。此外,美光科技在9月份也表示,正努力成为英伟达的供应商。

H200初步规格


此外,英伟达还提到H200将带来进一步的性能飞跃。H200和H100 GPU采用Transformer引擎,具有FP8精度,与上一代GPU相比,大型语言模型的训练速度提高了5倍。
在深度学习训练时,与H100相比,在处理Meta的大语言模型Llama2(700亿参数)时,H200的推理速度提高了近2倍在GPT-3.5的速度上是H100的1.6倍,在高性能计算HPC方面的速度更是达到了双核x86 CPU的110倍。


02 H200与支持H100的系统兼容



至于H200外形尺寸方面,与H100基本相同。H200将应用于具有四路和八路配置的HGX H200服务器主板,这些主板与HGX H100系统的硬件和软件兼容。英伟达表示,云服务提供商在添加H200时无需进行任何更改。
英伟达的全球合作伙伴服务器制造商生态系统(包括华擎Rack、华硕、戴尔科技、Eviden、技嘉、慧与、英格拉科技、联想、QCT、Supermicro、纬创资通和纬颖科技)可以使用H200 更新其现有系统。
除了专业AI云提供商CoreWeave、Lambda和Vultr之外,亚马逊网络服务、谷歌云、微软Azure和甲骨文云基础设施将成为首批提供H200芯片访问权限的云服务提供商。

推荐阅读

龙芯中科3A6000处理器11月底发布
联发科发布天玑9300,性能超高通8gen3
华为刷新Wi-Fi 7最快速率记录
全球网络安全专利排名:华为第二、腾讯第三



随时了解更多仪器资讯,求购、招标、中标信息实时更新,厂商招商信息随时看。大量、齐全、专业的仪器信息尽在仪器网(yiqi.com)。扫一扫关注仪器网官方微信,随时随地查看仪器用户采购、招标需求!
为你精选
最新企业新闻
最新产品文章
热门标签
上海长方光学仪器有限公司