Ollama系列教程(八):semantic kernel调用ollama接口

我是对本地大模型有执念的!因为它安全性好,数据完全被自己掌控。在前面的内容里面分享了如何使用OllamaSharp访问ollama接口,今天分享如何使用Semantic Kernel来访问ollama接口。

关于Semantic Kernel

Semantic Kernel(SK) 是一款模型无关的SDK,能够帮助开发者快速构建、编排和部署AI代理及多代理系统。无论是开发简单的聊天机器人,还是构建复杂的多代理工作流,该工具都能以企业级的可靠性和灵活性提供所需支持。

地址:github.com/microsoft/s...

为什么使用SK?

我们可以直接使用类似OllamaSharp这样的SDK来调用某个大模型的接口,但是如果我们即要访问Ollama里面的模型,又要访问OpenAI的接口,还要兼容DeepSeek的接口,这个时候就需要一个集成开发框架了。在.net平台,最好用且功能最全的,目前只有SK(如果还有其它框架请不吝赐教)。

使用SK

首先要添加框架引用:

csharp 复制代码
	dotnet add package Microsoft.SemanticKernel

由于我们要访问Ollama,因此还需要添加SK的Ollama连接器:

csharp 复制代码
	dotnet add package Microsoft.SemanticKernel.Connectors.Ollama

注意:为了避免编码时收到SKEXP0070、SKEXP0010这种错误,我们先在项目里面把他们屏蔽掉。

markdown 复制代码
	<PropertyGroup>

	    ......

		<NoWarn>$(NoWarn);SKEXP0001,SKEXP0010,SKEXP0070</NoWarn>

	</PropertyGroup>

	 

初始化SK

ini 复制代码
	var endpoint = new Uri("http://localhost:11434");

	var ollama = new OllamaApiClient(endpoint);

	 

	// Create a kernel builder

	var builder = Kernel.CreateBuilder().AddOllamaChatCompletion(ollama);

	 

	// Build the kernel

	Kernel kernel = builder.Build();

添加和使用插件

我们可以把sk里面的插件理解成function calling里面的function,本质上都是大预言模型里面的tools节点

ini 复制代码
	kernel.Plugins.AddFromType<DateTimePlugin>("DateTimePlugin");

	 

	var executionSettings = new OllamaPromptExecutionSettings()

	{

	    FunctionChoiceBehavior = FunctionChoiceBehavior.Auto(),

	};

代码说明:

  1. 添加插件,插件定义见下文
  2. 设置插件的执行方式,我们采用自动选择和执行插件

Plugin的定义

csharp 复制代码
	internal class DateTimePlugin

	{

	    [KernelFunction("get_current_datetime")]

	    [Description("Get current datetime and day of week")]

	    public Task<string> GetCurrentDateTime()

	    {

	        return Task.FromResult(DateTime.Now.ToString("yyyy-MM-dd HH:mm:ss ddd"));

	    }

	}

创建对话

markdown 复制代码
	var chatService = kernel.GetRequiredService<IChatCompletionService>();

	 

	Console.WriteLine();

	Console.WriteLine($"Chat with {ollama.SelectedModel}");

	 

	var systemPrompt = "You are a helpful assistant that knows about AI.";

	var chatHistory = new ChatHistory(systemPrompt);

	Console.WriteLine($">>System: {systemPrompt}");

	 

	while (true)

	{

	    Console.Write(">>User: ");

	    var message = Console.ReadLine();

	 

	    chatHistory.AddUserMessage(message);

	    Console.Write(">>Assistant: ");

	 

	    var reply = await chatService.GetChatMessageContentAsync(chatHistory,

	        executionSettings: executionSettings,

	        kernel: kernel);

	    Console.WriteLine(reply);

	 

	    // Add the message from the agent to the chat history

	    chatHistory.AddMessage(reply.Role, reply.Content ?? string.Empty);

	}

	 

代码说明:

  1. 首先在这段代码中创建一个chatService,用来和大模型进行对话
  2. systemPrompt是我们预设的大模型系统级别指令,通过systemPrompt可以更好的控制大模型的输出
  3. chatHistory用来存储会话历史
  4. while循环中进行对话,同时将user和assistant的对话内容临时存储在chatHistory

总结

以上就是今天分享的全部内容,主要介绍如何使用semantic kernel,并通过sk来访问ollama提供的大模型服务。

原文地址:https://www.cnblogs.com/youring2/p/18813889

相关推荐
i查拉图斯特拉如是12 小时前
搭建本地大模型知识库
人工智能·ai·大模型·知识库·ollama
casterQ12 小时前
4. Agent Quality ——【Google 5-Day AI Agents】
人工智能·llm·agent·langgraph·adk
组合缺一12 小时前
Solon AI 开发学习11 - chat - 工具调用与定制(Tool Call)
人工智能·学习·ai·chatgpt·llm·solon·toolcall
阿豪Jeremy13 小时前
LlamaFactory微调Qwen3-0.6B大模型步骤
llm
带刺的坐椅14 小时前
Solon AI 开发学习9 - chat - 聊天会话(对话)的记忆与持久化
java·ai·llm·openai·solon·mcp
大模型教程14 小时前
不愧是GitHub排名第一的大模型课!我还翻译成了中文版
程序员·llm·agent
163240154114 小时前
回顾-llama3[1]-->“ 一句话概括论文核心+技术亮点总结”
llm
大模型教程14 小时前
清华大佬强推!全网第一本中文大语言模型教程来了,391页 全开源
程序员·llm·agent
AI大模型14 小时前
AI领域名家名作,大模型学习书籍推荐-关于大模型的教科书(附pdf)
程序员·llm·agent
AI大模型14 小时前
开源大模型全维度详解+实操部署(Mistral-、Gemma(Google)、Llama、Qwen),小白必看
llm·agent·llama