当前位置: 首页 » 行业聚焦 » 科技前沿 » 正文

英伟达发布全球最强AI芯片,性能暴涨25倍


  来源: 每日经济新闻 时间:2024-03-19 编辑:流川
分享到:




第二代Transformer引擎:结合了Blackwell Tensor Core技术和TensorRT-LLM和NeMo Megatron框架中的英伟达先进动态范围管理算法,Blackwell将通过新的4位浮点AI支持双倍的计算和模型大小推理能力。


第五代NVlink:为提高数万亿参数和混合专家AI模型的性能,最新一代英伟达NVlink为每个GPU提供了突破性的1.8TB/s双向吞吐量,确保最复杂LLM之间多达576个GPU之间的无缝高速通信。


RAS引擎:Blackwell支持的GPU包含一个专用引擎,实现可靠性、可用性和服务性。此外,Blackwell架构还增加了芯片级功能,利用基于AI的预防性维护进行诊断和预测可靠性问题。这可以最大限度地延长系统正常运行时间,并提高大部署规模AI的弹性,使其能连续运行数周甚至数月,并降低运营成本。


安全人工智能:先进的机密计算功能可在不影响性能的情况下保护AI模型和客户数据,并支持新的本机接口加密协议,这对于医疗保健和金融服务等隐私敏感行业至关重要。


解压缩引擎:专用解压缩引擎支持最新格式,加快数据库查询,提供数据分析和数据科学的最高性能。未来几年,在企业每年花费数百亿美元的数据处理方面,将越来越多地由GPU加速。


Blackwell GPU体积庞大,将两个单独制造的晶粒组合成一个由台积电制造的芯片。它还将作为一款名为GB200 NVlink 2的整个服务器提供,该服务器结合了72个Blackwell GPU和其他旨在训练AI模型的英伟达部件。


亚马逊、谷歌、微软和甲骨文将通过云服务提供对GB200的访问。GB200将两个B200 Blackwell GPU与一个基于Arm的Grace CPU配对。英伟达表示,亚马逊网络服务将构建一个包含20000个GB200芯片的服务器集群。


英伟达没有提供新款GB200或其使用系统的成本。据分析师估计,英伟达基于Hopper的H100芯片成本在2.5万至4万美元之间,而整个系统的成本高达20万美元。


英伟达推理微服务


英伟达还宣布,将在其英伟达企业软件订阅中添加一款名为NIM(英伟达推理微服务)的新产品。NIM让使用较旧的英伟达GPU进行推理(或运行AI软件的过程)变得更加简单,并允许公司继续使用其已经拥有的数亿个英伟达GPU。与新AI模型的初始训练相比,推理所需的计算能力较少。对于那些希望运行自己的AI模型,而不是从OpenAI等公司购买AI结果作为服务的企业来说,NIM无疑是他们的得力助手。


英伟达的策略是吸引购买基于英伟达的服务器的客户注册英伟达企业版,每个GPU每年的许可费为4500美元。


英伟达将与微软或Hugging Face等AI公司合作,确保他们的AI模型能够在所有兼容的英伟达芯片上运行。随后,开发者可以使用NIM在自有服务器或基于云端的英伟达服务器上高效运行模型,无需繁琐的配置过程。


“在我原本调用OpenAI的代码中,我只需替换一行代码,将其指向从英伟达获取的NIM即可。”Das说道。


英伟达表示,该软件还将助力AI在配备GPU的笔记本电脑上运行,而非仅限于云端服务器。

关键词:    浏览量:9026

声明:凡本网注明"来源:仪商网"的所有作品,版权均属于仪商网,未经本网授权不得转载、摘编使用。
经本网授权使用,并注明"来源:仪商网"。违反上述声明者,本网将追究其相关法律责任。
本网转载并注明自其它来源的作品,归原版权所有人所有。目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。如有作品的内容、版权以及其它问题的,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。
本网转载自其它媒体或授权刊载,如有作品内容、版权以及其它问题的,请联系我们。相关合作、投稿、转载授权等事宜,请联系本网。
QQ:2268148259、3050252122。


让制造业不缺测试测量工程师

最新发布
行业动态
行业聚焦
国际资讯
仪商专题
按分类浏览
Copyright © 2023- 861718.com All rights reserved 版权所有 ©广州德禄讯信息科技有限公司
本站转载或引用文章涉及版权问题请与我们联系。电话:020-34224268 传真: 020-34113782

粤公网安备 44010502000033号

粤ICP备16022018号-4