刚刚,Windows 首次支持 AI 时代的 C 口!微软拉来 AI 圈三巨头,重新定义操作系统
「全球首个 XX Agent」快成为现在 AI 产品发布的标配了,几乎每天一睁眼都能看到。奥特曼在最近的演讲提到,2025 年将是 AI Agent 的突破年。
这股 Agent 热,也席卷到了正在举行的微软 Build 2025 开发者大会。
整场发布会下来,出现频率最高的关键词,不是 AI,也不是去年主角 Copilot,而是——Agent、Agent、还是 Agent。
但对微软来说,这场大会显然不只是一次例行的开发者聚会。
Copilot 正在从一个单一产品,进化为操作系统级别的能力中枢。并且,微软 CEO 萨蒂亚·纳德拉更是明确表态:「今天,我们又迈出了重要一步,致力于让 Windows 成为最适合 AI 的平台。」
微软给 Windows 加上了「AI 应用的 USB-C 端口」
本次发布会上,微软推出了多项关键更新,其中备受关注的当属 MCP。
所谓 MCP,即「模型上下文协议」(Model Context Protocol),最初由 AI 公司 Anthropic 于去年开源推出。
你可以将之简单理解为「AI 应用的 USB-C 端口」,就像 USB-C 统一了不同设备的物理连接一样,MCP 则可以统一 AI 模型获取信息和使用工具的「数字连接」。
这就能让各种不同的 AI 应用或智能 Agent,更方便地接入 Windows 生态,从而调用系统资源、访问文件、高效通信。
现在,Windows 11 更是原生支持模型上下文协议(MCP)。
MCP 与 Windows 的集成将为 AI 智能体连接原生 Windows 应用提供标准化框架,使应用能够无缝参与智能体交互。未来几个月内,这项功能将向部分合作伙伴开放,以收集反馈。
▲Windows 上的 MCP 架构
据介绍,为了加快生态建设,微软已与 OpenAI、Anthropic、Perplexity、Figma 等开发者展开合作,将 MCP 能力逐步集成进更多应用程序中。
过去,要让一个 AI 模型访问 Windows 的文件系统或控制系统设置,需要大量定制开发;而在引入 MCP 后,开发者可以将这些能力封装为「服务端点」(MCP 服务器),并通过 Windows 的 MCP 注册表让 Agent 发现并调用。
微软强调,这不仅能让 AI Agent「看见」操作系统中的更多资源,更将解锁它们与应用协作的新可能。
举例来说,AI 搜索引擎 Perplexity 可通过 MCP 自动定位并调用 Windows 文件系统中的相关文档,无需用户手动选择目录。
用户只需一句自然语言请求,如「找出我假期相关的所有文件」,AI 即可自动执行搜索。未来,在 Excel 中调用网络数据、在系统中定位设置参数,这类操作都可被 AI 自动完成。
Windows 负责人 Pavan Davuluri 在接受 The Verge 采访时表示:「我们希望 Windows 作为一个平台,能够不断进化,最终让智能体融入到操作系统的日常运行中,成为用户持续与应用和设备交互的重要方式。」
GitHub Copilot 大升级,Bug 修复、代码优化都能自动搞定
除了 Windows 层面的更新,微软还在软件开发领域加码「Agent 化」。
新版 GitHub Copilot 将帮助开发者执行日常任务,如重构代码、提升测试覆盖率、修复漏洞甚至实现新功能。目前,该功能已推出预览版。
深夜被运维电话吵醒的开发者,有机会睡好觉了。
现在,GitHub Copilot 可在夜间自动发现内存泄漏问题,生成诊断报告,并将修复任务分派给 Copilot。最终,Copilot 会完成代码修复、提交 PR,让你睡个踏实觉。
为了强调 AI 真能干活,纳德拉也现场上手演示了一番。
比方说,当想使用 Copilot 为社区页面添加筛选器,它不仅能够准确理解指令,还会主动提出优化建议,比如增加小、中、大的筛选项,或按照类别进行分组分类。
纳德拉只需将任务交付给 Copilot,它便能自动接手,生成拉取请求,最终成功开发该功能。
而对于那些传统上维护成本高、升级周期长的企业级应用系统,尤其是基于 Java 和 .NET 的架构,微软也提供了相应的现代化工具包。
开发者可以借助 AI Agent 自动生成升级计划、分析依赖关系、执行迁移流程,将原本需要耗费数周乃至数月的工作大幅压缩至几小时内完成。
尽管外界一度猜测微软与 OpenAI 渐行渐远,但纳德拉还是和 OpenAI CEO Sam Altman 展开了一场远程视频对话。
两人围绕 AI 工具如何改变软件工程展开讨论。Altman 回忆说,从 2021 年推出 Codex 起,OpenAI 就在探索智能编码体验。
如今,AI Agent 已成为开发团队中的「虚拟成员」,可以独立工作、批量执行任务。「你甚至可以将 Bug 修复任务直接分派给它,几分钟后它就能给你一个 PR(拉取请求)。」
谈及模型未来的发展时,Altman 表示,下一阶段的模型将更可靠、更自动化、更易用,不再需要开发者手动选择模型,而是实现真正的「自动决策 + 即插即用」。
纳德拉则强调,当下最大的挑战是技术变化速度。开发者若能及早深度参与新技术,将收获巨大优势。
微软这个新服务,让每家公司都能造自己的 Copilot
大会上,微软还展示了 Copilot 的五大功能入口:Chat、Search、Agent、Notebooks 和 Create。
当你把需求抛给 Copilot 后,它会向你展示思考过程,也就是 CoT 长思维链的推理过程。
在现场演示中,Copilot Studio 可调用 GPT-4 等模型,或诸如 Docusign 等第三方服务器,自动处理工作流中的代办事项。
针对企业用户,微软这次推出了「Copilot Tuning」服务。
借助 Microsoft 365 Copilot Tuning,企业客户可以利用自有数据微调模型,打造更符合内部需求的 AI 助理。并且,为确保数据安全,这些经过微调的模型仅限企业内部访问,底层权限受到系统控制。
在此基础上,开发者可借助 Microsoft 365 Copilot 的 Agent Builder 工具构建专属 Agent。
比如,一家律师事务所可构建一个法律文书助手,生成符合其业务风格与专业术语的合规文档;又如,一家涉足航空等受监管行业的咨询公司,可基于公司积累的法规文档构建问答型代理,用于为顾问提供更准确的法规响应。
最后,微软还推出了一个叫「Agent Store」的聚合式平台。
顾名思义,这个新平台可以理解为 Agent 的「App Store」,展示了微软、合作伙伴和客户们构建的各类智能体。你可以在里头一站式探索、试用、分享这些智能体,也能把合适的智能体分发给同事一起用,全面提高协作效率。
目前 Agent Store 已经正式上线,不妨直接上手试试。
黄仁勋马斯克奥特曼齐亮相,微软拉来了半个 AI 圈
微软的一站式企业级 AI 开发平台 Azure AI Foundry,也推出了多项重磅更新。
首先让人眼前一亮的,是 xAI 的旗舰模型 Grok 3 空降 Azure AI Foundry,为微软在财务预测、医疗诊断支持、法律文件分析和科学研究协助等方面的企业服务提供有力支持。
即日起,Grok 3 在 Azure AI Foundry 中可免费试用两周,后续 6 月开始,则按全球范围内输出 15 美元每百万 Tokens,数据区内输出 16.5 美元每百万 Tokens 收费。
另外,与在 Azure AI Foundry 上使用 OpenAI、Hugging Face 的模型类似,Grok 3 即将也支持 PTU(预配吞吐量)这种更经济高效的部署方式。
此次 Build 大会前,xAI 创始人兼 CEO 马斯克接受了纳德拉的远程采访,他透露即将发布的 Grok 3.5 模型,其研发核心紧扣第一性原理。
他分享道:「重点是找到物理学的基础知识,在推理的过程中应用物理工具,并以最小的错误成本追求真理。」
纳德拉进一步举例道,就好比现实生活中汽车总要安全地、正确地行驶,同理机器人也需要执行人类下派的任务,这些都遵守着世间的物理定律。
而谈及 AI 安全问题时,马斯克千言万语汇成一句话「诚实是最好的策略」。
目前,超 1900 个 AI 模型已集成到 Azure AI Foundry 中,包括各种响应模型、推理模型、特定任务模型、多模态模型等,可供开发者们自由取用。
Foundry Models 的成员公司除了大家所熟悉的 OpenAI 和 xAI,现在还迎来了 Mistral AI、Meta、Black Forest Labs,以及中国国产明星选手 DeepSeek 的加入。
或许,这也从侧面印证了早前传闻并非空穴来风。据外媒报道,微软正在测试 Anthropic、DeepSeek、Meta、xAI 等多家公司的 AI 模型,考察它们在支持 Copilot 方面的表现。
值得一提的是,这届 Build 大会上的 3 大重量级嘉宾,最后压轴出场的,是刚刚完成自家 Computex 展演讲的英伟达老黄。
在与微软 CEO 萨提亚·纳德拉的对话中,老黄甩出了一个惊人的数字:技术每两年会进步 40 倍。这也意味着,要跟上 AI 的演进速度,靠每几年更新一次硬件已经远远不够,必须「一年一小更」,才能不掉队。
而在纳德拉看来,英伟达对 CUDA 生态的长期投入和对架构兼容性的坚持,让开发者的努力可以跨代复用,哪怕是几年前的产品,也能从最新的软件算法中吃到红利。
老黄也接着补了一句:从 Hopper 到 Blackwell,英伟达再次实现了 40 倍的性能跃迁,而这离不开算法的升级,比如对 Transformer 架构的优化以及对预测解码的迭代等。
背后撑起这一切的,正是一个庞大且不断扩张的 CUDA 生态。全球开发者对这个生态的投入,每一点优化和改进,都会像水波一样扩散开来,影响成千上万的用户和企业。
Windows 未来是人类的,更是 Agent 的
单说把 AI Agent 深度嵌入工作流的每一环,也许有点抽象,那不妨来看看微软产品创新高级经理 John Link 的一段现场演示。
现在,你的实验室小跟班 Science agent 就坐在你身旁,捧着电脑。而你需要完成一项课题,其中涉及到知识推理、生成假设和运行实验 3 大环节。
第一部分的知识推理,Science agent 先是帮你喊来了「ChemistryAgent」,再叫上了「Knowledge BaseAgent」,在海量信息中检索、筛选、整合出课题所需信息。最后,Science agent 以左边摘要,右边综合报告的形式呈现工作结果,并提供了 Agent 工作时所引用的链接。
第二部分的生成假设,Science agent 派活给「ChemistryAgent」,后者处理了你提出的假设,中途实时同步更新了你提出的新想法和新要求。然后,由「GenChemAgent」生成了一份基于假设的实验设计方案。
下一步,你便可以拿着数据和方案,去验证实验结果了。
而若要 Agent 真正代替人类完成「最后一公里」的行动——买票、订酒店、做实验等等,CTO Kevin Scott 称还需要一些类似协议的东西来提供约束和支持,因此有了前文所说的 Microsoft MCP Support。
对于 Agent 的最终形态,Scott 脑海中还描绘着更多蓝图。
Scott 认为,人们真正想要的 Agent,是一个有着丰富内存资源,可以回溯、可以高精度定位记忆碎片的 Agent。
同时,未来 Agent 也不仅仅是一个开放的「Agentic」网络,还可以是一个 AI App。
Kevin Scott 提到,随着 AI 技术的进步,Agent 将能够执行更加复杂的任务,并通过开放的协议与各类服务和内容进行互动,承担起跨任务、跨平台的协同工作。
他解释道:「我希望通过某种开放协议,让所有 Agent 之间实现真正的互操作性,让所有拥有服务或内容的人都能通过某种方式访问 Agent,还可以说——嘿,我在这里。并且,无论是谁构建的 Agent,都能连接到这些内容和服务。」
而要想支撑这类的 Agent 的运行,离不开一个足够灵活、强大且易于集成的系统平台。
换句话说,这届 Build 大会传递出的信号也足够清晰:Windows 未来将不再只是一个为人类准备的操作系统,也将成为一个专为 AI Agent 而设的平台。
作者:李超凡、徐豫、莫崇宇
#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。