微软推出 Windows AI Foundry:用于本地人工智能开发的统一平台

5 月 20 日消息,在 Build 2025 开发者大会上,微软宣布了一系列针对 Windows 平台的 AI 开发新工具与功能,其中包括 Windows AI Foundry 的推出,这一全新的统一平台旨在为本地 AI 开发提供强大的支持,整合了 Windows Copilot Runtime 以及多项新能力,进一步推动 Windows 生态内的 AI 应用发展。

微软推出 Windows AI Foundry:用于本地人工智能开发的统一平台

Windows AI Foundry 的推出标志着微软在本地 AI 开发领域迈出了重要一步。该平台通过整合 Windows Copilot Runtime 以及新增功能,为开发者提供了一系列强大的工具和资源。Windows Copilot Runtime 已经在 Windows 平台上为本地 AI 应用提供了支持,通过 Windows AI API 和 Windows 机器学习(ML)功能,让 AI 模型能够在本地持续运行。而 Windows AI Foundry 在此基础上进一步拓展,提供了即用型 AI API,这些 API 由内置的 AI 模型驱动,能够满足开发者在本地开发 AI 应用时的多样化需求。

此外,Windows AI Foundry 还提供了定制 Windows 内置模型的工具,开发者可以根据自身应用的特定需求对模型进行优化和调整。该平台还支持从 Azure AI Foundry 引入开源模型,进一步丰富了开发者可使用的模型资源。同时,它还提供了一个推理运行时,使得开发者能够将自己开发的模型轻松集成到应用中。

在 AI 模型的集成方面,Windows AI Foundry 展现了强大的兼容性。它不仅整合了来自 Azure Foundry Local 的 AI 模型,还支持其他模型目录,例如 Ollama 和 NVIDIA NIMs。微软自身的 Foundry Local 模型目录将提供经过优化的 AI 模型,这些模型能够在 CPU、GPU 和 NPU 等多种硬件平台上高效运行。开发者可以通过简单的“winget install Microsoft.FoundryLocal”命令来浏览、下载和测试与设备兼容的模型。一旦选定模型,开发者可以利用 Foundry Local SDK 轻松将 Foundry Local 集成到自己的应用中,大大降低了开发难度和时间成本。

据1AI了解,Windows ML 作为 Windows 内置的 AI 推理运行时,是 Windows AI Foundry 的重要组成部分。其基于 DirectML 开发,能够在包括 AMD、Intel、NVIDIA 和 Qualcomm 在内的多种芯片平台上高效运行。Windows ML 的出现极大地简化了模型部署的流程,使得开发者无需担心未来硬件更新带来的兼容性问题。该运行时能够自动更新所有必要的依赖项,并在后台自动适配新的芯片架构,确保应用的稳定性和性能。

微软还宣布了对 LoRA(Low-Rank Adaptation)技术的支持,这一技术能够在 Phi Silica 模型上实现对模型参数的小部分微调。通过使用自定义数据进行微调,LoRA 能够显著提升模型在特定任务上的性能表现。目前,LoRA 已经作为 Windows App SDK 1.8 Experimental 2 的一部分进入公开预览阶段,并且已经在 Snapdragon X 系列 NPU 上实现支持。未来几个月内,LoRA 还将扩展到 Intel 和 AMD 的 Copilot+ PC 上,为更多开发者提供这一高效微调工具。

除了上述功能外,微软还推出了新的语义搜索 API,帮助开发者在其应用中创建 AI 驱动的搜索体验。这些 API 支持本地运行,并且集成了 RAG(Retrieval-Augmented Generation)技术,能够提供更加智能和高效的搜索结果。目前,语义搜索 API 已经在所有 Copilot+ PC 上进入私有预览阶段,开发者可以利用这些 API 将 AI 驱动的搜索功能集成到自己的应用中,为用户提供更加个性化的搜索体验。

声明:内容来源公开的各类媒体平台,若收录的内容侵犯了您的权益,请联系邮箱,本站将第一时间处理。
资讯

微软 Copilot 已支持 GPT-4o 图像生成技术,能力大提升

2025-5-19 20:05:43

资讯

微软 Edge 浏览器将开放设备端 AI 功能,助力 Web 开发者提升应用体验

2025-5-20 11:43:50

搜索