在GPT-4时代使用Semantic Kernel构建AI Copilot问答 以及 Semantic Kernel文档更新

gpt,时代,使用,semantic,kernel,构建,ai,copilot,问答,以及,文档,更新 · 浏览次数 : 208

小编点评

**Semantic Kernel**是一个开源 SDK,可用于将 OpenAI、Azure OpenAI 和 Hugging Face 等 AI 服务与 C# 和 Python 等传统编程语言相结合。通过这样做,您可以创建结合两全其美的 AI 应用程序。 **主要功能:** * 将 AI 模型堆栈和“copilot”助手中充当 AI 编排层。 * 为开发人员提供交互服务,以使用底层基础模型和 AI 基础设施。 **文档更新:** * Semantic Kernel 文档已更新,提供更多新内容。 * 新教程和示例提供与社区正在构建的内容更相关的内容。 **关键点:** * Semantic Kernel 是一个免费的开源 SDK。 * 它用于创建先进的 AI 注入应用程序。 * 用户可以邀请其他人加入聊天,数据共享在该用例中。 **其他信息:** * 在 Build 2023 大会上,微软举办了一个问答环节,回答开发人员关于 Semantic Kernel 的问题。 * 文档中还提供 Python 示例,使开发人员更容易使用 SDK。

正文

Semantic Kernel是一个开源SDK,可让您轻松地将OpenAIAzure OpenAIHugging Face等AI服务与C#和Python等传统编程语言相结合。通过这样做,您可以创建结合两全其美的 AI 应用程序。 Semantic Kernel 团队在博客上发布了2篇文章:

Semantic Kernel 通过在 AI 模型堆栈和“copilot”助手中充当 AI 编排层,为开发人员提供集成,以便在他们的应用程序中为这些构造提供交互服务,以使用底层基础模型和 AI 基础设施。由于Semantic Kernel是一个免费开源的关键工具,用于创建先进的AI注入应用程序,微软在Build 大会上最近举行了一个问答环节,回答开发人员关于该产品的问题,同时也更新了其文档。

Semantic Kernel 问答

微软在Build 2023 大会上举办了而一个问答:https://build.microsoft.com/en-US/sessions/d7973468-7060-41d8-91a5-1b3a94fa69b1,虽然演示文稿无法按需观看,但Microsoft上周的一篇文章中提供了以下摘要:

  • 基于历史示例创建新文档

    问题:“我有一个用例,根据我们业务的历史文档填写新文档草稿的部分。我可以为此使用人工智能吗?

    答:这是我们从许多客户那里听到的常见用例。要开始使用此功能,您需要:

    • 选择向量数据库解决方案 - 这允许AI找到您的文档并利用这些文档
    • 如果它们是大型文档,则可能需要选择分块策略 - 这就是文档在发送到向量数据库解决方案之前拆分文档的方式
    • 考虑要为最终用户使用的 UI

    Microsoft的回答继续列出了支持的几个向量数据库提供程序以及有关Copilot聊天入门应用程序的信息,这些信息可用于在实践中查看解决方案。

  • 允许员工与其企业数据对话

    问题:“我如何安全地允许我的员工以受信任的方式与SQL中的数据进行通信,以便用户进行快速注入?”

    答:这是我们从许多客户那里听到的另一个主要用例。

    您需要首先让用户授权进入您的应用,以便您知道他们是谁。使用该授权传递到 SQL 数据库或其他企业级数据库。这将确保用户只能访问您过去提供给他们的数据,因此您不会获得数据泄漏。

    使用视图和存储过程是提高用户安全状况的好方法。与其让LLM创建要执行的SQL语句,不如使用这些方法使它们保持跟踪。

  • 通过 AI LLM 添加一致性

    问题:“是否有任何最佳实践来创建这些新的AI解决方案,以便它们保持一致?”

    答:为最终用户添加一致性的一种方法是创建静态计划。可以在我们的 VS Code 扩展中创建计划,然后在用户每次请求相同内容时使用这些静态计划运行相同的步骤。

  • 使用LLM的多租户解决方案

    问题:“我应该如何考虑使用 AI 的多租户解决方案?”

    答:对于多租户解决方案,适用于保持 SQL 安全相同的规则。你将希望通过让用户对解决方案进行身份验证来按租户对用户进行细分。LLM不会自行保留或缓存任何信息。多租户 AI 解决方案中发生的任何数据串扰都将基于权限和/或数据系统配置不正确。

  • 多用户聊天解决方案

    问题:“我如何允许用户邀请其他员工加入聊天,数据共享在该用例中如何工作?”

    答:我们的Copilot聊天入门应用程序是一个很好的参考应用程序,可以了解它是如何工作的。它允许您邀请其他人与用户和 LLM 机器人聊天。就像 Word 文档一样,当您与其他用户共享文档时,他们可以看到文档中的内容。聊天将以相同的方式工作。

 

Semantic Kernel文档更新


微软最近还更新了SDK的文档。 我们相信无论您使用 C# 还是 Python,我们有很多新内容供您探索,都会让您更轻松地开始使用语义内核 ,我们更新的内容也更好地描述了语义内核如何与Microsoft生态系统的其他部分以及 ChatGPT 等其他应用程序相适应。

以下是亮点:

了解插件:“我们在文档中添加了一个新部分,解释了插件的工作原理,如何将它们与语义内核一起使用,以及我们与 ChatGPT 插件模型融合的计划。”

到处都是 Python 示例:“我们已经将Python示例添加到文档中的几乎每个教程和示例中,”Microsoft谈到其努力使Python SDK的使用更容易,因为团队将该部分与SDK的.NET风格相提并论。

新教程和示例:“作为本次更新的一部分,我们还希望提供与社区正在构建的内容更相关的教程,因此在文档的编排 AI 插件部分中,我们将引导您了解如何从头到尾使用插件构建 AI 应用程序。

  1. 首先学习语义函数以派生意图。
  2. 通过本机函数为您的 AI 提供计算能力。
  3. 链功能结合在一起,以充分利用 AI 和本机代码。
  4. 最后使用计划器通过AI自动生成计划

在文档中创建问题:该团队说:““最后,我们将整个文档站点发布为公共GitHub存储库,这意味着您现在可以在文档本身上创建问题。如果您看到令人困惑或不正确的内容,请通过在文档存储库中创建问题来告知我们。如果您想自己进行更改,我们也会接受 PR。

与在GPT-4时代使用Semantic Kernel构建AI Copilot问答 以及 Semantic Kernel文档更新相似的内容:

在GPT-4时代使用Semantic Kernel构建AI Copilot问答 以及 Semantic Kernel文档更新

Semantic Kernel是一个开源SDK,可让您轻松地将OpenAI,Azure OpenAI和Hugging Face等AI服务与C#和Python等传统编程语言相结合。通过这样做,您可以创建结合两全其美的 AI 应用程序。 Semantic Kernel 团队在博客上发布了2篇文章:Sem

使用Microsoft.SemanticKernel基于本地运行的Ollama大语言模型实现Agent调用函数

大语言模型的发展日新月异,记得在去年这个时候,函数调用还是gpt-4的专属。到今年本地运行的大模型无论是推理能力还是文本的输出质量都已经非常接近gpt-4了。而在去年gpt-4尚未发布函数调用时,智能体框架的开发者们依赖构建精巧的提示词实现了gpt-3.5的函数调用。目前在本机运行的大模型,基于这一

AIGC的阿克琉斯之踵

摘要:现在,越来越多的企业和个人使用AIGC生成文章、图片、音乐甚至视频等内容,AIGC已经成为一种必备的工具。在游戏和原画师行业,甚至已经出现了第一批因为AI而失业的人。 本文分享自华为云社区《GPT-4发布,AIGC时代的多模态还能走多远?系列之二:AIGC的阿克琉斯之踵》,作者:ModelAr

【OpenAI】私有框架代码生成实践

OpenAI提供的ChatGPT/GPT-4模型和CodeX模型能够很好的理解和生成业界大多数编程语言的逻辑和代码,然而在实际应用中,我们经常会在编码时使用到一些私有框架、包、协议和DSL等。由于相关模型没有学习最新网络数据,且这些私有数据通常也没有发布在公开网络上,OpenAI无法根据这些私有信息生成对应代码。

什么是Token?为什么大模型要计算Token数

本文分享自华为云社区《【技术分享】什么是Token?为什么GPT基于Token定价》,作者:开天aPaaS小助手Tracy。 在使用LLM大模型时,我们经常会遇到一个关键词,叫:Token。 比如: 最新版 GPT-4 Turbo 模型最高支持 128k token 上下文; 曾经 GPT 最强对手

基于AIGC的京东购物助手的技术方案设想

随着AIGC的爆火,ChatGPT,GPT-4的发布,我作为一个算法工作者,深感AI发展的迅猛。最近,OpenAI的插件和联网功能陆续向用户公开,我也在第一时间试用了这些最新的功能。在OpenAI的插件市场上,我被一个可以帮助分析食谱,并生成购物清单的功能所吸引。

两条命令搞定 ChatGPT API 的调用问题

自2022年11月30日 OpenAI 发布 ChatGPT 以来,虽然时有唱衰的声音出现,但在OpenAI不断推陈出新,陆续发布了OpenAPI、GPT-4、ChatGPT Plugins之后,似乎让大家看到了一个聊天机器人往操作系统入口进军的升纬之路。 ChatGPT能被认为是操作系统级别的入口

GPT-4 来了!这些开源的 GPT 应用又要变强了

近日,在 GPT-3.5 发布的半年后,OpenAI 正式推出了大版本的 GPT-4,不同于 GPT-3 到 GPT-3.5 耗时两年,这次版本升级只用了半年。如果你对 OpenAI 不熟悉,答应我读下这篇《ChatGPT 会开源吗?》 ,它详细介绍了 OpenAI 这家公司及其产品。 为了让你快速

Schillace 定律 背后的 Sam Schillace

微软semantic-kernel(SK)团队发布了一篇博客文章:Early Lessons From GPT-4: The Schillace Laws[1] ,微软的CVP , Deputy CTO Sam Schillace 根据他在GPT-4方面的经验制定了使用LLM创建软件的九项原则,称之

OpenAI“杀疯了”,GPT–4o模型保姆级使用教程!一遍就会!

5月14日凌晨1点,OpenAI发布了名为GPT-4o 最新的大语言模型,再次引领了人工智能领域的又一创新浪潮,让整个行业都为之震动。 据OpenAI首席技术官穆里-穆拉提(Muri Murati)表示,GPT-4o是在继承GPT-4智能的基础上,对文本、视觉和音频功能进行了进一步改进,而且目前所有