激光网
当前位置: 首页 > 人工智能 > 正文

微软即将推出其首款人工智能芯片 以减少依赖并与英伟达竞争

2023-10-09 17:11:26  来源:激光网原创    

  据报道,微软预计将于11月推出其首款人工智能芯片。

  从微软迁出被视为试图减少对英伟达图形处理单元的依赖,这些单元需求量很大,供应短缺。

  微软的人工智能芯片代号为Athena,专为数据中心服务器而设计。预计Athena将与Nvidia的旗舰H100 GPU竞争,后者正被微软和其他云提供商用于为大型语言模型和其他AI应用程序提供动力。

  该信息于5月4日首次报道雅典娜。该芯片预计将在定于11月14日至17日举行的Microsoft Ignite会议上亮相。

  为了降低运行生成式人工智能模型的成本,微软自 2019 年以来一直在开发一种名为 Athena 的人工智能芯片。

  根据说法,雅典娜背后的想法有两个目的。微软高管意识到,该公司在构建自己的内部芯片方面落后于谷歌和亚马逊,一位了解此事的消息人士告诉The Information。

  此外,据报道,微软正在寻找更便宜的替代品,并决定制造更便宜的芯片。超过300名微软员工在芯片上工作。

  Athena的发展正值人工智能芯片需求不断增加的时候,特别是对于需要大量计算能力来训练和操作的大型语言模型。因此,人工智能芯片的短缺推高了产品价格。

  谷歌和亚马逊正在开发自己的人工智能芯片,这表明人工智能芯片市场将快速增长。

  据知情人士透露,OpenAI还在探索制造自己的人工智能芯片,甚至已经评估了潜在的收购目标。通过这样做,ChatGPT之父希望减少对英伟达和其他芯片制造商的依赖。它还可以帮助微软降低成本并提高其云服务的性能。

  据知情人士透露,至少从去年开始,OpenAI一直在讨论各种选择,以解决该公司所依赖的昂贵人工智能芯片短缺的问题。

  选择包括构建自己的人工智能芯片,与包括英伟达在内的其他芯片制造商更紧密地合作,以及多元化进入英伟达以外的供应商。

  OpenAI拒绝置评。

  OpenAI首席执行官Sam Altman已将收购更多人工智能芯片作为公司的首要任务。他曾公开抱怨GPU的稀缺性,这是一个由英伟达主导的市场。英伟达控制着全球80%以上的芯片市场份额,最适合运行人工智能应用程序。

  获得更多芯片的努力与Sam Altman发现的两个主要问题有关:为OpenAI软件提供动力的先进处理器短缺;与操作硬件相关的“压倒性”成本,以支持他们的项目和产品。

  自 2020 年以来,OpenAI 一直在微软建造的巨型超级计算机上开发生成式人工智能技术,使用 10000 个 Nvidia GPU。

  生成式人工智能是一种人工智能,经过编程,可自动生成新内容,如文本、图像、音频和视频。它与其他人工智能系统的不同之处在于从现有数据中预测结果。生成式人工智能系统不依赖于训练数据,而是能够自行生成新的、更丰富的数据。

  使用OpenAI运行ChatGPT是昂贵的。根据伯恩斯坦银行的Stacy Rasgon的分析,每次查询的成本约为4美分。如果 ChatGPT 查询增长到谷歌搜索量的十分之一,OpenAI 最初每年将需要价值约 481 亿美元的 GPU 和价值约 16 亿美元的芯片才能维持生计。

  开发自己的人工智能芯片的努力将使OpenAI进入谷歌,亚马逊和微软等一小群大型科技公司,这些公司正试图控制对其业务至关重要的芯片的设计过程。

  目前还不清楚OpenAI是否会继续其制造定制芯片的计划。据业内资深人士称,这样做将是一项重大的战略举措,也是一项每年可能花费数亿美元的重大投资。即使为这项任务投入资源,OpenAI也不能保证成功。

  收购一家芯片公司可能会加快OpenAI自己的芯片构建过程,就像亚马逊一样,通过在2015年收购Annapurna Labs。

  据一位熟悉OpenAI计划的人士称,该公司研究了它对可能的收购目标进行事实核查的程度。OpenAI的目标公司的身份尚不清楚。

  即使OpenAI继续实施定制芯片计划,包括收购,这项工作也可能需要数年时间。与此同时,该公司仍然依赖Nvidia和Advanced Micro Devices等商业芯片供应商。

  一些大型科技公司多年来一直在构建自己的处理器,但结果有限。据路透社报道,Meta Platforms生产定制芯片的努力遇到了问题,促使该公司逐步淘汰其部分人工智能芯片。Facebook所有者正在开发一种可以支持各种人工智能工作的新型芯片。

  OpenAI考虑生产自己的人工智能芯片可能表明,它正朝着减少对微软依赖的方向发展。

  半导体研究公司SemiAnalysis的分析师迪伦·帕特尔表示,由于人工智能聊天机器人运行的昂贵技术基础设施,世界上有这么多人使用ChatGPT,OpenAI每天可能花费超过700万美元。原因是 ChatGPT 需要巨大的计算能力来响应用户请求。

  "大部分成本是基于OpenAI需要的昂贵服务器,“Dylan Patel告诉The Information。

  在与Insider的电话中,Dylan Patel表示,OpenAI现在运营ChatGPT的成本更高,因为他最初的估计是基于GPT-3模型。

  帕特尔说,OpenAI的最新型号GPT-4运行成本更高。

  SemiAnalysis的其他分析师Dylan Patel和Afzal Ahmad表示:“训练OpenAI的大型语言模型可能花费数千万美元。然而,操作或推理成本远远超过以任何合理规模部署大型语言模型的训练成本。

  "事实上,ChatGPT 的推理成本超过了每周的培训成本,“他们强调说。

免责声明: 激光网遵守行业规则,本站所转载的稿件都标注作者和来源。 激光网原创文章,请转载时务必注明文章作者和来源“激光网”, 不尊重本站原创的行为将受到激光网的追责,转载稿件或作者投稿可能会经编辑修改或者补充, 如有异议可投诉至:Email:133 467 34 45@qq.com