在最近的Ignite大会上,微软为其云基础设施推出了两款定制设计的芯片:Microsoft Azure Maia AI加速器,针对人工智能任务和生成式人工智能进行了优化,以及Microsoft Azure Cobalt CPU,这是一种基于Arm的处理器,专为在微软云上运行通用计算工作负载而设计。
Azure Maia AI和Azure Cobalt芯片将于2024年抵达微软的数据中心,最初为该公司的服务提供支持,例如Microsoft Copilot或Azure OpenAI服务。
Maia AI 芯片采用 5 纳米台积电工艺制造,拥有 1050 亿个晶体管。根据该公司的新闻稿,它是专门为Azure硬件堆栈设计的,将为Microsoft Azure上运行的一些最大的内部AI工作负载提供支持。
同时,Azure Cobalt是一款基于Arm Neoverse CSS设计并为Microsoft定制的128核芯片。微软公司硬件产品开发副总裁Wes McCullough在一份新闻稿中表示:
选择 Arm 技术是微软可持续发展目标的关键要素。它的目标是优化整个数据中心的“每瓦性能”,这实质上意味着每消耗一个单位的能量就能获得更多的计算能力。
过去,微软构建其服务器和机架以降低成本,通过添加硅,该公司还可以影响冷却效率并优化服务器容量。后者是由微软到 2030 年实现负碳的使命推动的。
微软竞争对手谷歌和AWS已经拥有了用于人工智能工作负载的芯片。例如,谷歌在 2016 年的 Google I/O 大会上宣布的 Tensor Processing Unit 用于其数据中心,以支持神经网络等机器学习应用的 TensorFlow 框架。此外,AWS 于 2018 年推出了基于 Graviton Arm 的芯片和 Inferentia AI 处理器,并于 2020 年宣布了用于训练模型的 Trainium。
受访者 Aromasin 在 Hacker News 的帖子中评论道:
请注意,微软多年来一直在使用“定制芯片”;他们只是在FPGA上,而不是ASIC。他们已经开发了 IP 来加速一大堆流程,所以他们并不是突然想到了亚马逊和谷歌一直在做的魔术酱。如果超过一半的新芯片只是基于其FPGA设计的RTL,我会感到惊讶。
唯一改变的是,它们现在正在疯狂地扩展,并且可以证明设计 ASIC 与使用现成部件所带来的开销是合理的。
微软与芯片提供商 AMD 和 Nvidia 合作并密切合作。然而,与AMD和Nvidia不同的是,微软不会让客户购买带有芯片的服务器。
微软云和人工智能集团执行副总裁斯科特·格思里在推特上写道:
微软通过端到端系统方法重新构想了我们的基础架构,以满足客户独特的 AI 和云需求。随着我们新的人工智能加速器、Azure Maia 和云原生 CPU Azure Cobalt 的推出,以及我们与芯片提供商的持续合作关系,我们现在可以提供更多选择和性能。
最后,微软打算在未来扩大选择范围,正在进行的开发工作集中在为Azure Maia AI加速器和Azure Cobalt CPU创建第二代迭代。