股票

  辉达推出了其最新AI晶片H200,专为训练和部署多样的AI模型设计。亚马逊AWS、谷歌云服务和甲骨文云计划表示明年开始采用这款晶片。周一收盘时,辉达股价上涨0.59%,至486.2美元。


  3aa.png

  英伟达推升级版AI芯片H200,黄教主深夜放大招,地表最强AI GPU芯片!性能飙升90%,Llama 2推理速度翻倍,大批超算中心来袭.


  

  全球市值最高的芯片制造商英伟达正在升级其 H100 人工智能 (AI) 处理器,替这款曾推动其在AI计算市场占据主导地位的产品增添更多功能。


  

  英伟达11月13日表示,这款名为 H200 的新款芯片将能够使用高频宽存储 (HBM3e),使其能够更好的处理开发和实施 AI所需的大型数据集。亚马逊的 AWS、Alphabet的 Google Cloud 和甲骨文的云端基础础设施都承诺从明年开始使用这种芯片。


  

  报道指出,当前版本的英伟达处理器 H100—被称为AI加速器—已经有了很高的需求,但这款产品正面临着更激烈的竞争,AMD将在第四季把辉达的竞品MI300芯片推向市场,而英特尔声称其 Gaudi 2 的速度比 H100 更快。


  

  141GB超大显存,性能直接翻倍!


  

  H200,将为全球领先的AI计算平台增添动力。它基于Hopper架构,配备英伟达H200 Tensor Core GPU和先进的显存,因此可以为生成式AI和高性能计算工作负载处理海量数据。


  

  英伟达H200是首款采用HBM3e的GPU,拥有高达141GB的显存。


  

  英伟达表示,通过这款新产品 H200,公司正试图跟上用于创造 AI 模型和服务的数据集的规模。强化的存储能力将让 H200 在训练 AI 执行识别图像和语音等任务过程的速度更快。

  

  Llama 2推理速度提升近100%


  

  跟前代架构相比,Hopper架构已经实现了前所未有的性能飞跃,而H100持续的升级,和TensorRT-LLM强大的开源库,都在不断提高性能标准。


  

  H200的发布,让性能飞跃又升了一级,直接让Llama2 70B模型的推理速度比H100提高近一倍!


该网站使用cookie。Cookies 政策