SparkX结合Ollama搭建本地知识库

Ollama是一个开源的本地大语言模型(LLM)运行框架,专注于简化和优化大型语言模型在个人设备上的部署与管理,支持主流模型的快速运行与集成。借助Ollama 强大的功能我们无需关注本地模型部署的各种复杂的依赖。如何在SparkX中使用Ollama呢?

开源地址:
github.com/nick-bai/Sp...
gitee.com/shop-sparke...

本文以macos 环境为例,其他环境除了装Ollama略有不同,其余的均一致

安装 ollama

1、下载Ollama

打开 ollama的官网 ollama.com/

点击下载,根据自己系统选择对应的版本。

正常情况下,系统会自动检测当前的操作系统,默认选择对应的版本。点击下载即可。

2、安装ollama

没有啥特殊的配置的话,一路下一步。

3、验证是否安装完毕

打开命令行输入

复制代码
ollama -v

出现如下的画面,表示安装完成。

在SparkX中使用Ollama

1、语言模型

我们选择一个自己系统可以部署的模型,打开 Ollama官网,点击Models
ollama.com/search

我们选择一个 qwen3 模型

点击进去,这里我 选择 1.7b 模型,复制拉取命令

arduino 复制代码
ollama run qwen3:1.7b

打开命令行执行,等待模型拉去完成。

拉去完毕之后,模型会自动启动。我们输入 你好,能看到模型正常的回复了。

接下来我们打开 SparkX的模型管理,填写 Ollama 的可用模型 qwen3:1.7b

保存提交。然后在应用中选择我们设置的 模型

此时,就可以在应用中使用 Ollama 中的 qwen3 模型了

2、向量模型

打开 Ollama 官网,选择 embedding 模型

这里我们选择 一个,以 bg3-m3 为例子,复制拉去命令

复制代码
ollama pull bge-m3

拉去完毕之后,我们打开 SparkX 的向量模型配置,输入可用模型为 bge-m3

知识库就可以配置 bge-m3 模型了

传入文本,选择向量化

等待完成向量化

3、重排模型

打开 Ollama 官网,选择 搜索 rerank 模型

我们选择拉去 bge-reranker-v2-m3,复制 拉去命令

bash 复制代码
ollama pull linux6200/bge-reranker-v2-m3

打开 SparkX 的重排模型,输入重排名称

在应用中就可以选择这个重排模型了

相关推荐
paopaokaka_luck3 小时前
基于Spring Boot+Vue的吉他社团系统设计和实现(协同过滤算法)
java·vue.js·spring boot·后端·spring
Flobby5293 小时前
Go语言新手村:轻松理解变量、常量和枚举用法
开发语言·后端·golang
Warren984 小时前
Java Stream流的使用
java·开发语言·windows·spring boot·后端·python·硬件工程
程序视点5 小时前
IObit Uninstaller Pro专业卸载,免激活版本,卸载清理注册表,彻底告别软件残留
前端·windows·后端
xidianhuihui5 小时前
go install报错: should be v0 or v1, not v2问题解决
开发语言·后端·golang
进击的铁甲小宝7 小时前
Django-environ 入门教程
后端·python·django·django-environ
掘金码甲哥7 小时前
Go动态感知资源变更的技术实践,你指定用过!
后端
王柏龙8 小时前
ASP.NET Core MVC中taghelper的ModelExpression详解
后端·asp.net·mvc
无限大68 小时前
算法精讲:二分查找(二)—— 变形技巧
后端
勇哥java实战分享8 小时前
基于 RuoYi-Vue-Pro 定制了一个后台管理系统 , 开源出来!
后端