在本周大型微软人工智能 2023 开发者大会的开幕式上,人工智能站到了舞台中央——前台和后台以及介于两者之间的所有舞台。 贯穿会议的两个主要主题是Copilots - 涵盖广泛产品和服务的AI助手 - 以及插件,它们有效地将Copilots转变为聚合器,可能使其成为企业和消费者客户的一站式商店。
微软在大会上推出了下列Copilot:
在推出Windows Copilot时,它使Windows 11成为第一个宣布生成式AI辅助的PC平台,以帮助用户采取行动并完成工作。 首席执行官萨蒂亚·纳德拉(Satya Nadella)本人在LinkedIn帖子中宣布,这是在会议上公布的50多个开发人员更新之一。他提到的其他更新是将Bing引入ChatGPT和具有通用可扩展性的新Copilot Stack。
微软在这篇文章里说(https://news.microsoft.com/source/features/ai/microsoft-outlines-framework-for-building-ai-apps-and-copilots-expands-ai-plugin-ecosystem/)[6]:Copilot Stack被描述为一个人工智能开发框架,帮助开发人员构建自己的Copilot。“这个堆栈包括对插件的支持,这些插件通过允许它们查询实时信息、合并公司或其他业务数据、执行新型计算并代表用户安全地采取行动来增强人工智能系统的功能。
Copilot Stack由微软的Azure 执行官斯科特·格思里(Scott Guthrie) 推出,他将其描述为“数字世界的执行器”。
微软首席技术官凯文·斯科特(Kevin Scott)也讨论了新的可扩展性模型,他说,Copilot 开发始于一个想法,就像任何软件项目一样,不同之处在于人工智能开发平台所支持的可能性领域。 他将此等同于智能手机首次亮相带来的新体验和服务,之后许多无法想象的事情成为可能。 斯科特预计类似的颠覆性应用程序将使用Copilot Stack构建。
插件本质上充当人工智能系统与第三方希望保持私密或专有的数据之间的桥梁。插件允许 Microsoft 的Copilot 与一系列不同的软件和服务进行交互,使开发人员能够构建检索实时信息、合并公司或其他业务数据并代表用户执行操作的插件。借助插件,AI系统可以访问私人文件,使其能够回答有关业务特定数据的问题。此功能被视为对生成式 AI 背景下日益增长的隐私需求的响应。
微软宣布正在与OpenAI合作,通过采用OpenAI的ChatGPT和微软的copilot产品(包括Bing Chat,Dynamics 365 Copilot,Windows Copilot和Microsoft 365 Copilot)集成的插件开放标准来支持和发展AI插件生态系统。
微软在一份声明:为每个开发人员提供适用于 Microsoft 365 Copilot 的插件[7]:
有三种类型的插件:
在接下来的几个月中,将启用数千个业务线和第三方插件,其中 50 多个插件已经提供给 Microsoft 365 Copilot 早期访问计划的用户。
LLM在去年推出ChatGPT之后得到了普及,ChatGPT是基于微软合作伙伴OpenAI的GPT(生成预训练转换器)系列LLM的有感知的聊天机器人。 微软在三月份推出了Semantic Kernel[8],这是一个开源的内部孵化项目,提供了一个SDK,帮助开发人员将传统的编程语言与最新的LLM提示相结合,Build 大会上也有两场Semantic Kernel会议专门讨论LLM 的开发。其中一场是在线的:https://build.microsoft.com/en-US/sessions/31e11443-70d3-4020-8c8c-0a654bccd233?source=sessions[9], 微软解释了创建Semantic Kernel(SK) 的原因以及它如何需要一种新的开发人员思维方式。了解 SK 如何与 OpenAI 的 GPT-4 一起发展,以及插件意味着什么。 还讨论了微软所收集的关于SK用于Copilot 的需求,这个会议是SK项目的主导者参与的,其中Sam Schillace 提出了LLM 开发的九大原则。
相关链接: