当前位置: 首页 >互联网 > 内容

GPU暂时仍主导AI加速器市场

互联网
导读 随着企业开始采用人工智能和机器学习战略,像英伟达、英特尔和AMD这样的芯片制造商正在努力成为标准的硬件提供商。人工智能正成为大多数分...
2022-06-16 17:08:06

随着企业开始采用人工智能和机器学习战略,像英伟达、英特尔和AMD这样的芯片制造商正在努力成为标准的硬件提供商。

人工智能正成为大多数分布式计算架构不可或缺的功能。因此,AI硬件加速器成为高科技领域的主要竞争战场,而NVIDIA、AMD、Intel等半导体厂商则位居前列。

最近几个月,AI硬件加速芯片的供应商加剧了竞争。最新的一个里程碑是,英特尔发布了由AI优化的新一代Ponte Vecchio图形处理单元(GPU),这是更大的XeGPU家族的几款产品中的第一款。这些产品还将加速游戏和高性能计算的发展。工作量。

GPU云中AI加速器的优势

在AI硬件加速方面,英伟达凭借在GPU方面的巨大市场领先地位,以及芯片性能、成本、效率等功能的不断增强,成为领先的芯片供应商。虽然NVIDIA在其核心GPU堡垒和其他AI加速器领域(最著名的是移动、物联网和其他边缘部署)面临着越来越激烈的竞争,但它已经在AI芯片大战中占据了自己的位置,现在它似乎已经准备好进一步增长和采用。

未来几年,英伟达仍将是针对各种人工智能工作负载优化的芯片组供应商,从训练到推理,并支持在云数据中心、企业服务器和边缘部署中的部署。几大趋势将推动英伟达继续主导AI硬件加速器。

首先,云仍将是AI的重点。根据麦肯锡最近的预测,到2025年,支持数据中心和基于服务器的AI工作负载的硬件加速器解决方案将构成大部分机会。虽然推理应用将稳步增长,更多的工作负载将转移到移动,嵌入式和其他边缘设备,但模型训练仍将是云中AI的主要工作负载。

英伟达的GPU已经成为基于云的训练的主要平台,未来10年似乎没有其他硬件加速技术可以取代GPU。尽管如此,基于边缘的推理将是未来人工智能机会的主要增长部分。麦肯锡预测,到2025年,仅数据中心的AI推理硬件的机会将是AI训练硬件的两倍(9B-10B美元,4B-5B美元),是边缘设备部署的三倍。同年,推理和培训的成本会更高。

英伟达支持的第二个趋势是,GPU的云优势将使这项技术在边缘应用中发挥持久的作用。对于基于云的AI工作负载,GPU仍然是迄今为止应用最广泛的硬件技术。LiftCloud Insights估计,2019年5月的四大云通过专用加速器在其97.4%的基础设施即服务计算实例类型中部署了英伟达GPU。在本世纪中叶,AMD和英特尔的竞争对手GPU解决方案不太可能对英伟达的市场份额产生重大影响。

英伟达(NVIDIA)正在利用这种云优势,并将其带入新的边缘机会,最近宣布的高调合作伙伴关系就是证明,该合作伙伴关系可以在特定行业、混合和虚拟化的云到边缘计算环境中为人工智能工作负载运行GPU服务器。即使竞争对手的硬件AI芯片组技术(如CPU、FPGA和神经网络处理单元)抢占了边缘设备的份额,由于其在云到边缘应用环境中的关键作用,GPU仍将留在自动驾驶汽车和工业供应链的游戏中。

但最后但同样重要的是,英伟达令人印象深刻的行业标准AI硬件加速基准测试将使其获得全面的竞争优势。最值得注意的是,最近发布的MLPerf AI行业基准测试显示,英伟达的技术在训练和推理性能方面创造了新纪录。MLPerf已经成为AI训练事实上的标准基准,借助新的MLPerf Impact 0.5基准,可以实现从云到边缘的推理。

版权声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢您的支持与理解。