这两天你可能看过这篇文章:微软面向企业的Private ChatGPT 开源!超详细安装流程反馈![1], 这篇文章顶多就是一个Azure OpenAI 服务的简单Demo, 就连插件机制都没有,这也是促使我写这篇文章的因素之一。 微软在Build 大会上宣布了Copilot Stack,Copilot Stack被描述为一个人工智能开发框架,帮助开发人员构建自己的Copilot。“这个堆栈包括对插件的支持,这些插件通过允许它们查询实时信息、合并公司或其他业务数据、执行新型计算并代表用户安全地采取行动来增强人工智能系统的功能。
其中充当AI Orchestration角色的正是微软今年在LLM 领域实践的总结而开源的项目Semantic Kernel[2], 其中有一个示例程序Copilot chat ,已经按照Copilot stack的设计进行了重构,微软最近的一篇文章 “使用Chat Copilot测试你的ChatGPT插件”[3],Semantic Kernel团队构建了参考应用程序,以帮助开发人员了解平台的不同概念(包括利用插件,规划器和AI记忆)如何组合在一起以创建单一的对话体验。
Microsoft一直在更新其Chat Copilot参考应用程序以测试插件,并将其移至自己的GitHub存储库[4], Microsoft还改进了该应用程序的功能,使开发人员更容易了解Chat Copilot的功能,其中列出了三个具体功能:
基于其用于构建 ChatGPT 插件然后对其进行测试的单独文档,Microsoft 还发布了有关部署 Chat Copilot 以便它可以与组织中的其他人一起使用的指南, 下面介绍一下在本地环境中部署运行Chat Copilot:
在本地环境下运行条件
在本地环境安装,详细参考 Chat Copilot Sample Application[5], 需要在Azure 上获取到服务的几个参数:
API_KEY
: The API key
for Azure OpenAI .
AZURE_OPENAI_ENDPOINT
: The Azure OpenAI resource
Endpoint
address.
AZURE_APPLICATION_ID
: The Application (client) ID
associated with the registered application.
在Windows、Linux、Mac环境下都scripts 目录下准备好了安装脚本。
第一步执行Install.ps 或者 Install.sh 安装依赖环境, 这个脚本会安装 Chocolatey
, dotnet-7.0-sdk
, nodejs
, 和 yarn。
第二部执行配置 Chat Copilot:
.\Configure.ps1 -AIService {AI_SERVICE} -APIKey {API_KEY} -Endpoint {AZURE_OPENAI_ENDPOINT} -ClientId {AZURE_APPLICATION_ID}
然后执行Start.ps或者Start.sh ,启动后端API 和前端的 React 应用。
访问应用程序
访问http://localhost:3000/ 后会显示认证界面,使用Microsoft 账户登录后就可以拥有企业私有的ChatGPT,可以支持ChatGPT插件。
相关链接:
我将以面试官的角度来提问一些支付相关的问题,并做出回答,让你对企业中支付的全貌有个大概的认知,这里面有一个问题是我面试别人问过的,xdm看完了可以猜一猜是哪个。