市场分析:AI如何再次点燃人们对硬件的兴趣

长期以来 , 美国劳伦斯利弗莫尔国家实验室一直是全球最大的超级计算能力消费者之一 。 这个由美国能源部运营的机构拥有超过200petaflops(每秒2000亿次浮点运算)的计算能力 , 运行着来自美国各大制造商的超级计算机系统 。
过去两年中 , 该实验室采用的系统中增加了两个新来者:CerebrasSystems和SambaNovaSystems 。 这两家初创公司总融资规模超过18亿美金 , 正试图颠覆迄今为止由x86CPU和GPU主导的市场 , 由那些专门用于人工智能模型开发和推理处理的硬件来运行这些模型 。
Cerebras表示 , 自己的WSE-2芯片建立在晶圆级架构上 , 可以提供2.6万亿个晶体管和850000个CPU核心来承载训练神经网络的任务 , 这大约是高端GPU上晶体管数量的500倍和核心数量的100倍 。 Cerebras声称 , 该架构凭借40GB的板载内存和高达2.4PB的外部内存 , 可以处理因为过于庞大而无法在基于GPU的设备上运行的AI模型 。 Cerebras以40亿美金的估值融资了7.2亿美元 。
SambaNova表示 , 自己的DataScale集成软硬件系统可以训练深度学习模型(这种模型广泛用于语言处理和图像识别) , 比Nvidia人工智能优化的DGXA100计算机快6倍 , 一部分原因是该系统的内存容量增加了13倍 。
市场分析:AI如何再次点燃人们对硬件的兴趣
文章图片
劳伦斯利弗莫尔国家实验室正在使用美国国家核安全局的Lassen超级计算机(如图) , 以及Cerebras的专用芯片 , 该芯片的大小是标准数据中心GPU的57倍 , 因此可以容纳到超过1.2万亿个晶体管中 。
市场分析:AI如何再次点燃人们对硬件的兴趣
文章图片
美国劳伦斯利弗莫尔国家实验室的deSupinski 。 他看到专用硬件可将性能提升5倍 。 图片:美国劳伦斯利弗莫尔国家实验室
美国劳伦斯利弗莫尔国家实验室首席技术官BronisdeSupinski表示 , 使用经过AI优化的设备所积累下来的经验非常有用 。 他表示:“很多人认为我们即将看到摩尔定律的终结 , 我们认为 , 通过引入机器学习模型 , 大大减少我们必须执行的计算量 , 可以显着提高速度 。 ”他说 , 早期迹象表明 , 专有AI超级计算机的性能是基于GPU的系统的5倍 。
芯片重生
多年来 , 计算机硬件一直是一个乏善可陈的市场 。 占主导地位的x86微处理器架构正在触达可通过小型化实现性能增长的极限 , 因此制造商们的目光聚焦于在芯片中封装更多核心上 。
对于快速发展的机器学习和深度学习(这是当今主要的两种人工智能) , GPU是一大救星 。 GPU最初是为图形处理而设计的 , 可以有数千个小型核心 , 非常适合提供AI训练所需的并行处理能力 。
IDC全球基础设施实践研究副总裁PeterRutten说:“人工智能的本质在于能够从并行处理中受益 。 ”大约在10年前人们发现 , 原本设计初衷是把像素投放在屏幕上的GPU , 很擅长做并行处理 , 因为GPU是并行处理引擎 , 你可以在GPU中放很多核心 。 ”
这对Nvidia来说是个好消息 , Nvidia在这个市场出现萎缩之前 , 市值从2015年不到180美金飙升到2021年的7350亿美金 。 一直到最近 , Nvidia都几乎独占整个市场 , 但许多竞争对手正在力求改变这种状况 。
市场分析:AI如何再次点燃人们对硬件的兴趣
文章图片
Gartner分析师Detake认为 , 高性能计算和AI工作负载的融合 , 推动了对新型硬件加速的需求 。 图片:Gartner
对于AI工作负载 , “到目前为止主要还是使用NvidiaGPU , 但用户正在寻找其他技术可以将这类工作负载提升到一个新的水平上 , ”Gartner专门研究运营AI系统的分析师ChiragDekate这样表示 。 “这并不意味着GPU已经终结 , 但是随着高性能计算和AI工作负载继续融合 , 你会看到更多种类的加速器涌现 。 ”