近几个月来,人工智能创新取得的显著进步点燃了一波变革可能性的浪潮,以重塑行业和我们工作方式的承诺吸引了我们的集体想象力。
今天,在微软Inspire上,Meta和Microsoft宣布支持Azure和Windows上的Llama 2系列大型语言模型。Llama 2 旨在使开发人员和组织能够构建生成式 AI 驱动的工具和体验。Meta 和 微软共同致力于使 AI 及其好处民主化,我们很高兴 Meta 对 Llama 2 采取开放的态度。我们为开发者提供构建模型类型的选择,支持开放和前沿模型,并且很高兴成为 Meta 的首选合作伙伴,因为他们首次向商业客户发布了新版本的 Llama 2。
现在,Azure 客户可以在 Azure 上轻松、安全地微调和部署 7B、13B 和 70B 参数的 Llama 2 模型,Azure 是最广泛采用的前沿和开放模型的平台。此外,Llama将进行优化,以便在Windows上本地运行。Windows 开发人员将能够通过 ONNX 运行时以 DirectML 执行提供程序为目标来使用 Llama,从而在将生成 AI 体验引入应用程序时实现无缝工作流。
我们与元维基日益增强的合作伙伴关系
Meta 和 微软一直是 AI 领域的长期合作伙伴,首先是合作将 ONNX Runtime 与 PyTorch 集成,为 Azure 上的 PyTorch 创建出色的开发人员体验,以及 Meta 选择 Azure 作为战略云提供商。今天的公告建立在我们加速人工智能时代创新的合作伙伴关系之上,并进一步扩展了Microsoft的开放模型生态系统和作为全球人工智能超级计算平台的地位。
Azure 专门构建的 AI 超级计算平台由设施、硬件和软件独特设计,以支持世界领先的 AI 组织构建、训练和部署一些要求最苛刻的 AI 工作负载。Llama 2 模型与 Azure AI 的可用性使开发人员能够利用 Azure AI 的强大工具进行模型训练、微调、推理,尤其是支持 AI 安全的功能。
在Windows中包含Llama 2模型有助于推动Windows成为开发人员构建针对客户需求量身定制的AI体验的最佳场所,并释放他们使用世界一流的工具进行构建的能力。
扩展 Azure AI 模型目录和 Windows 可用性
Llama 2 是我们不断增长的 Azure AI 模型目录中的最新成员。模型目录目前为公共预览版,用作基础模型的中心,使开发人员和机器学习专业人员能够轻松发现、评估、自定义和大规模部署预构建的大型 AI 模型。
该目录使用户无需在操作 Llama 2 时管理所有基础结构依赖项。它为模型微调和评估提供了交钥匙支持,包括强大的优化技术,如DeepSpeed和ONNX Runtime,可以显着提高模型微调的速度。
Windows开发人员将能够使用Llama 2轻松构建新体验,这些体验可以通过GitHub Repo访问。借助适用于Linux的Windows子系统和功能强大的GPU,开发人员可以在Windows PC上微调LLM以满足其特定需求。
使用 Azure 负责任地构建
负责任的 AI 是 微软处理 AI 的方法以及我们如何合作的核心。多年来,我们投入巨资使 Azure 成为负责任、尖端 AI 创新的地方,无论客户是构建自己的模型,还是使用来自 Microsoft、Meta、OpenAI 和开源生态系统的预构建和可自定义模型。
在Microsoft,我们通过包括实验和测量在内的迭代分层方法减轻使用大型语言模型带来的潜在风险。Azure AI 客户可以使用自己的示例数据测试 Llama 2,以查看它针对其特定用例的性能。然后,客户可以使用提示工程和检索增强生成技术为其应用开发、评估和优化元提示,并为最终用户提供更安全、更可靠的体验。
Azure AI 内容安全等服务增加了另一层保护,有助于确保 AI 应用的更安全的在线体验。我们与 Meta 的部分合作将 Meta 的安全技术与 Azure AI 内容安全相结合,因此默认情况下,在 Azure AI 中部署 Llama 2 模型时采用分层安全方法。
今天通过 Llama 2 扩展我们的模型目录以及与 Meta 的合作是朝着实现负责任、开放的 AI 方法迈出的一大步。