Windows系统本地知识库构建:Cherry Studio+Ollama

本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI

  • 数据安全:数据不出本地,无泄露风险。
  • 零成本运行:核心组件(Ollama, Cherry Studio, 开源模型)免费。
  • 控制权:可自由选择和更换本地模型。

本地部署对硬件有一定要求。建议至少拥有16GB内存和一块支持CUDA(NVIDIA)或Metal(Apple Silicon)的显卡,以获得流畅的体验。CPU也可以运行,但速度会慢很多。

Ollama本地部署

Ollama是一个极简的本地大模型运行框架,能让您一键启动并管理本地模型。

下载 Ollama

官网:ollama.com/

LLM问答模型:

生成自然语言的答案。deepseek-r1:1.5b配置要求不高,但生成效果不怎么样,这里只是用来测试知识库。安装其它模型可以去ollama 官网看看。

复制代码
ollama pull deepseek-r1:1.5b

Embedding模型:

Embedding模型负责将文本转换为向量,构建知识库。

bash 复制代码
ollama pull shaw/dmeta-embedding-zh:latest

启动 Ollama

ollama 也有 chat 窗口,如果只是问答的话可以用。

复制代码
ollama listollama ps

Cherry Studio

Cherry Studio 是一款集多模型对话、知识库管理、AI 绘画、翻译等功能于一体的全能 AI 助手平台。

下载安装

官网:www.cherry-ai.com/

配置模型服务:

点击右上角的设置图表,选择"模型服务"

arduino 复制代码
http://localhost:11434

找到 Ollama,在 API地址栏中(默认就行)

在 Ollama 开启的状态下,点击下面的管理,点一下需要用到的模型。

将刚刚拉取的 shaw/dmeta-embedding-zh:latestdeepseek-r1:1.5b 添加到模型列表中。

创建知识库

设置中,选择常规设置,打开知识库。

点击首页旁边的"+",选择知识库,然后点击"添加",输入知识库名称。

点击设置图标

选择嵌入模型shaw/dmeta-embedding-zh:latest

回到知识库的界面上传文件,也可以通过"笔记"自己输入内容,添加目录和网址等。Cherry Studio会自动在后台进行文本分块和向量化处理。处理完成后,文件会显示绿色对勾。

官方文档

docs.cherry-ai.com/

使用示例

在聊天窗口中选中添加的知识库

点击"@"图标,选择大模型

deepseek-r1:1.5b不太行。

此外,如果本地大模型带不动,可以考虑使用线上的大模型搭配本地的知识库。

学习资源推荐

如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。

本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI

相关推荐
字节跳动数据平台15 小时前
从“实时分账”到“智能问数”:汇付天下以“Data Agent”重塑支付业务决策效率
agent
智泊AI15 小时前
大语言模型如何微调(Fine-tuning)?
llm
大模型教程15 小时前
2张4090本地微调万亿参数模型!KTransformers上线模型微调功能,使用指南来了
程序员·llm·agent
大模型教程15 小时前
快速上手Qwen Code:本地部署与环境配置全攻略
程序员·llm·agent
FreeCode15 小时前
LangChain1.0智能体开发:人机协作
python·langchain·agent
离开地球表面_9916 小时前
AIGC时代的必备技能--Prompt工程
llm·aigc
王国强200917 小时前
LangChain智能体核心组件概述
agent
亚里随笔18 小时前
突破智能体训练瓶颈:DreamGym如何通过经验合成实现可扩展的强化学习?
人工智能·语言模型·自然语言处理·llm·agentic
AI大模型18 小时前
本地部署vLLM+Qwen3:高性能大模型推理引擎,比Ollama强在哪?
程序员·llm·agent