市场分析:AI如何再次点燃人们对硬件的兴趣( 二 )


市场里的所有玩家
大型芯片制造商并没有停滞不前 。 三年前 , 英特尔收购了HabanaLabs , 让这家以色列芯片制造商成为英特尔AI开发工作的重点 。 去年春天 , 英特尔推出了针对训练优化的HabanaGaudi2处理器和Greco推理处理器 , 据称其速度至少是Nvidia旗舰产品A100GPU的2倍 。 AMD一直对自己在AI抱负很低调 , 但也表示 , 新的Ryzen系列处理器将包含内置的机器学习功能 。
今年3月 , Nvidia推出了具有800亿个晶体管并Nvidia高速NVLink互连技术的H100加速器GPU 。 它配置了专用引擎 , 可以提升自然语言处理中使用的Transformer模型执行速度 , 与上一代相比提高6倍 。 MLPerf基准测试的最新结果显示 , H100在大多数深度学习测试中的表现要优于Gaudi2 。 此外 , Nvidia也被认为在软件堆栈方面具有优势 。
Dekate说:“很多用户选择GPU , 是因为他们可以利用容器化软件的生态系统 。 Nvidia之所以如此成功 , 是因为他们建立了生态系统的战略 。 ”
超大规模云厂商甚至比芯片制造商更早进入该行业 。 谷歌的TensorProcessingUnit是一种专用的集成电路 , 于2016年推出 , 目前已经是第四代了 。 AWS早在2018年推出了面向机器学习的Inferentia推理处理加速器 , 称性能是GPU加速实例的2倍多 。 上个月 , AWS宣布基于Trainium芯片的云实例全面上市 , 并表示在深度学习模型训练场景中 , 在性能相当的情况下 , 其成本比同类基于GPU的EC2低50% 。 谷歌和AWS的努力都主要集中在通过云服务进行交付的方式上 。
当这些成熟的市场领导者专注于渐进式改进时 , 很多正在开发AI专用硬件的初创公司进行了越来越多有趣的创新 。 根据PitchBookData的数据显示 , 去年他们给芯片初创公司投资的18亿美金中 , 这种类型的初创公司占了最大的份额 , 是2017年投资额的2倍多 。 他们正在追逐的可能是一棵巨大的摇钱树:根据市场研究公司AlliedMarketResearch预计 , 到2030年 , 全球AI芯片市场规模将从2020年的80亿美金增加到近1950亿美金 。
更小、更快、更便宜
很少有初创公司想要取代x86CPU , 但这主要因为这么做几乎没有什么影响力 。 Forrester首席分析师MikeGualtieri说:“芯片不再是瓶颈 , 不同芯片之间的通信才是一个巨大的瓶颈 。 ”
市场分析:AI如何再次点燃人们对硬件的兴趣
文章图片
Cerebras使用“晶圆级”集成 , 将数万亿个处理器应用于神经网络 。 图片来源:Cerebras
CPU执行低级别操作例如文件管理和任务分配 , 但“纯粹的CPU专用方法已经不再适用于扩展了 , ”Gartner分析师Dekate说 。 “CPU专为各种活动设计 , 从打开文件到管理内存缓存 , CPU必须是通用的 , ”这意味着CPU不太适合运行AI模型训练所需的大规模并行矩阵算术运算 。
市场上大多数做法都是围绕着协处理器加速器、专用集成电路、以及在较小程度上针对特定用途进行微调的FPGA 。 “除了Arm和AMD之外 , 没有人试图取代CPU , ”IDC分析师Rutten说 , 这里他指的是低功耗CPU参考设计创造者Arm 。
Rutten说:“每个人都在遵循谷歌的说法 , 即开发与CPU协同工作的协处理器 , 通过把算法硬编码到处理器而不是作为软件运行的方式来应对AI工作负载中特定的部分 。 这些ASIC正是为做好一件事而专门打造的 。 ”
加速方法
这基本上就是Blaize眼下正在做的事情 。 这家位于美国加州埃尔多拉多山的公司 , 是由三位前英特尔工程师创立的 , 到目前为止已经融资了1.55亿美金 。 Blaize打造了所谓的GraphStreamingProcessor , 用于自动驾驶汽车和视频监控等边缘计算场景 。 这种完全可编程的芯片组具有CPU的很多功能 , 但针对任务级并行性和流式执行处理进行了优化 , 运行功率仅为7瓦 。