不想依赖英伟达!微软发布两款自研AI芯片,可训练大模型

更新时间:2023-11-16 08:05:45作者:无忧百科

不想依赖英伟达!微软发布两款自研AI芯片,可训练大模型

11月16日消息,美国时间周三,微软发布了首款自研人工智能(AI)芯片,可用于训练大语言模型,摆脱对英伟达昂贵芯片的依赖。微软还为云基础设施构建了基于Arm架构的CPU。这两款自研芯片旨在为Azure数据中心提供动力,并帮助该公司及其企业客户准备迎接AI时代的到来。

微软的Azure Maia AI芯片和Arm架构AzureCobalt CPU将于2024年上市。今年,英伟达的H100GPU需求激增,这些处理器被广泛用于训练和运行生成图像工具和大语言模型。这些GPU的需求非常高,甚至在eBay上的售价超过了4万美元。

微软Azure硬件系统和基础设施主管拉尼·博卡(RaniBorkar)在接受采访时解释说:“微软在芯片开发方面有着悠久的历史。”早在20多年前,微软就与人合作开发了Xbox的芯片,甚至还合作设计了Surface设备的芯片。博卡表示:“这些努力都是建立在这些经验基础之上的。2017年,我们开始构建云硬件堆栈,并开启了这段旅程,使我们走上了构建新自研芯片的轨道。”

新的Azure Maia AI芯片和AzureCobalt CPU都是由微软内部构建的,并对其整个云服务器堆栈进行了深度检修,以优化性能、功耗和成本。博卡表示:“我们正在重新考虑人工智能时代的云基础设施,并真正优化该基础设施的每一层。”

Azure Cobalt CPU以元素“钴”(钴蓝是重要的蓝色颜料)命名,是一款128核芯片,基于Arm的NeoverseCSS设计,并为微软定制。它旨在为Azure上的通用云服务提供支持。博卡解释称:“我们花了很多心思,不仅要让它具有高性能,还要注意到电源管理。为此我们做了许多有意识的设计选择,包括控制每个内核和每台虚拟机上性能和功耗的能力。”

微软目前正在测试Cobalt CPU的工作负载,如Teams和SQL服务器,并计划明年为客户提供各种工作负载的虚拟机。虽然博卡没有直接将其与亚马逊在AWS上提供的Graviton3服务器进行比较,但与微软目前用于Azure的基于Arm的服务器相比,应该会有一些明显的性能提升。博卡表示:“我们的初步测试表明,我们的性能比目前使用商用Arm服务器的数据中心提高了40%。”微软还没有分享完整的系统规格或基准。

微软的Maia 100 AI加速器以“昴宿四”(一颗明亮的蓝色恒星,希腊神话中称为迈亚)命名,专为运行云端人工智能工作负载而设计,如大语言模型训练和推理。它将用于支持该公司在Azure上某些最大的人工智能工作负载,包括与OpenAI高达100多亿美元的合作。微软将为OpenAI的所有工作负载提供支持。这家软件巨头一直在与OpenAI在Maia的设计和测试方面进行合作。

OpenAI首席执行官萨姆·奥特曼(SamAltman)说:“当微软第一次分享他们的Maia芯片设计时,我们感到非常兴奋。我们一起努力,利用我们的模型来改进和测试它。Azure的端到端人工智能架构现在通过Maia进行了优化,为训练更有能力的模型铺平了道路,并使这些模型对我们的客户来说变得更便宜。”

Maia采用台积电5纳米工艺制造,拥有1050亿个晶体管,比AMD的MI300XAI GPU(1530亿个晶体管)少了30%左右。博卡说:“MAIA支持我们的第一个8位数据类型,即MX数据类型,以便协同设计硬件和软件,这有助于我们支持更快的模型训练和推理时间。”

微软与AMD、Arm、英特尔、Meta、英伟达和高通等公司都加入了一个组织,该组织正在为人工智能模型的下一代数据格式制定标准。同时,微软正在以开放计算项目(OCP)的协作和开放工作为基础,以使整个系统适应人工智能的需求。

博卡透露:“Maia是微软制造的第一个完整的液冷服务器处理器,我们的目标是以更高的效率实现更高的服务器密度。因为我们正在重新构想整个堆栈,我们特意考虑到了每一层,所以这些系统实际上也适合我们目前的数据中心。”

这对微软来说非常关键,因为它可以更快地启动这些人工智能服务器,而不必在世界各地的数据中心重新为它们腾出空间。微软建造了独特的机架用来放置Maia服务器主板,并配有名为“助手”的液体冷却器。它的工作原理就像在汽车或高档游戏PC上搭载的散热器,可以冷却Maia芯片的表面。

除了共享MX数据类型,微软还与合作伙伴共享其机架设计,以便他们可以在内部有其他芯片的系统上使用它们。但Maia芯片的设计不会被更广泛地分享,微软将其保留在内部。

Maia 100目前正在GPT3.5 Turbo上进行测试,该模型正在支持ChatGPT、BingAI和GitHubCopilot等工具。微软正处于部署的早期阶段,就像Cobalt一样,该公司还不愿意发布确切的Maia规范或性能基准。

这使得我们很难准确解读Maia将如何与英伟达广受欢迎的H100GPU、最近发布的H200,甚至AMD最新的MI300X进行比较。博卡也不想进行比较,而是重申,与英伟达和AMD的合作对于Azure人工智能云的未来仍然非常关键。博卡表示:“在云计算运营的规模下,优化和整合堆栈的每一层,以最大限度地提高性能,使供应链多样化,并为我们的客户提供基础设施选择,这真的非常重要。”

供应链的多样化对微软来说同样重要,尤其是考虑到英伟达目前是人工智能服务器芯片的主要供应商,而各家公司一直在竞相购买这些芯片。据估计,为了推进ChatGPT的商业化,OpenAI需要超过3万个英伟达的老款A100GPU,而微软的自研芯片可以帮助其客户降低人工智能的成本。微软还为自己的Azure云工作负载开发了这些芯片,而不打算将其出售给英伟达、AMD、英特尔和高通等其他公司。

博卡解释称:“我认为这更像是一种互补,而不是与他们竞争。今天,我们在云计算领域同时使用英特尔和AMD的芯片。同样,在人工智能领域,我们也可以同时使用AMD和英伟达的芯片。这些合作伙伴对我们的基础设施非常重要,我们真的希望给我们的客户选择。”

Maia 100和Cobalt100的命名表明微软已经在设计这些芯片的第二代版本。博卡说:“这是一个系列,不只是一代就结束了,但我们不会分享我们的路线图。”目前还不清楚微软多久会发布一次Maia和Cobalt的迭代,但考虑到人工智能的发展速度,如果Maia100的继任者以与英伟达H200相似的速度发布(大约20个月),无需为此感到惊讶。

现在的关键是,微软将以多快的速度让Maia运行起来,加快推进其人工智能雄心,以及这些芯片将如何影响人工智能云服务的使用定价。微软还没有准备好谈论这款新服务器的定价,但我们已经看到该公司悄悄地推出了针对Microsoft365的Copilot,每位用户每月收费30美元。

目前,Microsoft 365版的Copilot仅限于微软的大客户,企业用户必须承诺至少拥有300个用户,才能使用这款新的人工智能Office助手。随着微软本周推出更多的Copilot功能,并对BingChat进行了品牌重塑,Maia可能很快就会帮助弥补对支持这些新体验的人工智能芯片的需求。(小小)

本文标签: 英伟达  微软  gpu  amd  英特尔  arm  

为您推荐

不想依赖英伟达!微软发布两款自研AI芯片,可训练大模型

不想依赖英伟达!微软发布两款自研AI芯片,可训练大模型,英伟达,微软,gpu,amd,英特尔,arm

2023-11-16 08:05

增程式在争议中狂飙:理想月销超4万,李想喊话吉利长城切换技术路线

增程式在争议中狂飙:理想月销超4万,李想喊话吉利长城切换技术路线,吉利,长城,电动车,增程式,出租车,电动汽车,phev,理想汽车,李想(企业家)

2023-11-16 08:05

财报拆解:电商打架,喂饱腾讯?

财报拆解:电商打架,喂饱腾讯?,电商,京东,财报,网络广告,游戏直播,阿里巴巴,腾讯视频

2023-11-16 08:05

腾讯ToB业务单季收入首超500亿,马化腾:正在加大投资人工智能模型

腾讯ToB业务单季收入首超500亿,马化腾:正在加大投资人工智能模型,马化腾,腾讯云,汤道生,人工智能,tob业务,类聊天机器人

2023-11-16 08:05

进入装车验证阶段!美固态电池开发商已向宝马交付首批样品

进入装车验证阶段!美固态电池开发商已向宝马交付首批样品,正极,固体,阳极,负极,装车,电解质,开发商,电动车,宝马汽车,美固态电池,锂离子电池,宝马索伯车队

2023-11-16 08:05

小鹏汽车何小鹏:唯有全领域或部分领域全栈自研才能应对未来的竞争

小鹏汽车何小鹏:唯有全领域或部分领域全栈自研才能应对未来的竞争,全栈,何小鹏,电动车,出租车,小鹏汽车,智能驾驶,自动驾驶,汽车产业,阿里巴巴集团,新能源汽车

2023-11-16 08:05