奇瑰网

英伟达刷新AI推理纪录,两款全新GPU首秀

[复制链接]
#网站管理认证# 奇瑰网社区账号认证  网站管理认证

奇瑰网社区账号认证

用户网龄
3.2年

  我的勋章: 

周年纪念闪耀之星在线达人分享大神

发表于 2021-4-27 19:30:13 | 显示全部楼层 |阅读模式
英伟达刷新AI推理纪录,两款全新GPU首秀
————————————————
原文作者:包永刚
转载来自:本文来自微信公众号:芯基建(ID:AIRobotics),奇瑰网经授权转载。
————————————————
23c31f5fc7b783f39e20e4ed54a3e912.jpg
最新MLPerf Benchmark云端推理结果显示,GPU相比CPU的性能优势从237倍提升到了314倍。 作者 | 包永刚 雷锋网消息,时隔半年,MLPerf组织发布最新的MLPerf Inference v1.0结果,V1.0引入了新的功率测量技术、工具和度量标准,以补充性能基准,新指标更容易比较系统的能耗,性能和功耗。V1.0版本的基准测试内容云端推理依旧包括推荐系统、自然语言处理、语音识别和医疗影像等一系列工作负载,边缘AI推理测试则不包括推荐系统。
66f0b5ad8bebe96754b1a6eb894eb277.png
MLPerf Inference v1.0所有主要的OEM都提交了MLPerf测试结果,其中,在AI领域占有优势地位的英伟达此次是唯一一家提交了从数据中心到边缘所有MLPerf基准测试类别数据的公司,并且凭借A100 GPU刷新了纪录。不仅如此,超过一半提交成绩的系统都采用了英伟达的AI平台。不过,初创公司提交其AI芯片推理性能Benchmark的依旧很少。
AI推理最高性能半年提升45%—雷锋网在 MLPerf Inference v0.7 结果发布的时候已经介绍过,英伟达去年5月发布的安培架构A100 Tensor Core GPU在云端推理的基准测试性能是最先进英特尔CPU的237倍。经过半年的优化,英伟达又将推荐系统模型DLRM,语音识别模型RNN-T和医疗影像3D U-Net模型的性能进一步提升,提升幅度达最高达45%,与CPU的性能差距也提升至314倍。
fb84a0e6e860904c1c98a0fa8060c9f2.png
从架构的角度看,GPU架构用于推理优势并不明显,但英伟达依旧凭借其架构设计配合软件优化刷新了MLPerf AI云端和边缘推理的Benchmark纪录。MLPerf的Benchmark证明了A100 GPU性能,但其不菲的售价也是许多公司难以承受的。今天,更具性价比的英伟达A30(功耗165W)和A10(功耗150W) GPU也在MLPerf Inference v1.0中首秀,A30 GPU强于计算,支持广泛的AI推理和主流企业级计算工作负载,如推荐系统、对话式AI和计算机视觉。A10 GPU更侧重图像性能,可加速深度学习推理、交互式渲染、计算机辅助设计和云游戏为混合型AI和图形工作负载提供支持。可以应用于AI推理和训练的A30和A10 GPU今年夏天开始会应用于各类服务器中。
c73feb132980d0856fe8ed17708d264c.png

A100云端AI推理性能比CPU高314倍—A100经过半年的优化,与CPU的性能差距从v0.7时最多237倍的差距增加到了最高314倍。具体来看,在数据中心推理的Benchmark中,在离线(Offline)测试,A100比最新发布的A10有1-3倍的性能提升,在服务器(Server)测试中,A100的性能最高是A10的近5倍,在两种模式下,A30的性能都比A10高。
6b188c625c791777e375f99dbd4d7719.png
值得注意的是,英特尔本月初最新发布的第三代至强可扩展CPU Ice Lake的推理性能相比上一代Cooper Lake在离线测试的ResNet-50和SSD-Large模型下有显著提升,但相比A100 GPU体现出17-314倍的性能差距。高通AI 100的云端AI推理在MLPerf Inference v1.0测试下表现不错,其提交的离线和服务器测试下的ResNet-50和SSD-Large模型成绩显示,高通AI 100的推理性能均比英伟达新推出的A10 GPU高,其它模型的成绩高通并未提交。从每瓦性能来看,高通A100在提交成绩的ResNet-50和SSD-Large模型中比A100更高,但性能比A100低。赛灵思的VCK5000 FPGA在图像分类ResNet-50的测试中表现不错。
Jetson系列是唯一提交所有边缘推理测试成绩的芯片—A系列GPU在云端AI推理的性能优势可以延续至边缘端。MLPerf的边缘AI推理Benchmark分为Single-Stream和Multi-Stream,A100 PCIe、A30、A10在Single-Stream的所有模型下都有显著的性能优势,高通A100在ResNet-50模型下也优势明显,不过高通也仅提交了这一模型的成绩。
705af46ffe04304777ce5454a5d40189.png
这些产品用于边缘AI推理有些大材小用,英伟达的Jetson家族的AGX Xavier和Xavier NX更适合边缘场景,根据提交的数据,Centaur公司在ResNet-50模型中优势明显,SSD-Small模型下的性能与Jetson Xavier NX性能相当。边缘AI推理的Multi-Stream Benchmark,只有英伟达提交了成绩,A100 PCIe版本的性能最高是Jetson AGX Xavier和Xavier NX的60倍。在英伟达此次提交的结果中,多项是基于Triton推理服务器,其支持所有主要框架的模型,可在GPU及CPU上运行,还针对批处理、实时和串流传输等不同的查询类型进行了优化,可简化在应用中部署AI的复杂性。
4b00a1aafbbc15da5ac292f858a82029.png
雷锋网了解到,在配置相当的情况下,采用Triton的提交结果所达到的性能接近于最优化GPU能够达到性能的95%,和最优化CPU99%的性能。另外,英伟达还使用Ampere架构的多实例GPU性能,在单一GPU上使用7个MIG实例,同时运行所有7项MLPerf离线测试,实现了与单一MIG实例独立运行几乎完全相同的性能。
ecbaf8bb85dbd39197734b6d178b2cde.png

小结—MLPerf Benchmark结果的持续更新,可以为在IT基础设施投资的企业提供一些有价值的参考,也能推动AI的应用和普及。在这个过程中,软件对于AI性能的提升非常重要,同样是A100 GPU,通过有针对性的优化,半年实现了45%的性能提升。同时也不难发现,英伟达正在通过持续的软硬件优化,以及更丰富的产品组合,保持其在AI领域的领导力,在AI领域想要超越英伟达似乎正在变得越来越难。
▎往期推荐英伟达最终活成了“三芯”英国、欧盟将展开深度调查,英伟达收购 Arm 悬了?英伟达推首个认证系统,一面为AI普及,一面为AI统治力                

最新资讯,网红爆料,科技资讯,八卦娱乐
使用高级回帖 (可批量传图、插入视频等)

发表回复

您需要登录后才可以回帖 登录 | 账号注册   微信登录

本版积分规则   Ctrl + Enter 快速发布  

发帖时请遵守我国法律,网站会将有关你发帖内容、时间以及发帖IP地址等记录保留,只要接到合法请求,即会将信息提供给有关政府机构。
快捷导航
Powered by Discuz! X3.4 ( 粤ICP备20013252号-1
Copyright © 2014-2021 奇瑰网 粤公网安备44130302100219号
快速回复 返回顶部 返回列表