FastGPT + OneAPI 构建知识库

云端text-embedding模型

这个在前面的文章FastGPT私有化部署+OneAPI配置大模型中其实已经说过,大概就是部署完成OneAPI后,分别新建令牌和渠道,并完成FastGPT的配置。

新建渠道

选择模型的类型并配置对应的词向量模型即可,这里我选择的是阿里通义千问。

重启oneAPI

FastGPT配置

docker-compose.yml文件配置

修改 FastGPT 配置文件config.json

bash 复制代码
"vectorModels": [
	{
      "model": "text-embedding-v1",
      "name": "lingmouAI",
      "inputPrice": 0,
      "outputPrice": 0,
      "defaultToken": 700,
      "maxToken": 3000,
      "weight": 100
    },
	{
      "model": "text-embedding-ada-002",
      "name": "lingmouAI",
      "inputPrice": 0,
      "outputPrice": 0,
      "defaultToken": 700,
      "maxToken": 3000,
      "weight": 100
    }
  ],

重启fastGPT

bash 复制代码
docker-compose up -d

FastGPT测试知识库训练

新建知识库

上传文件

上传文件并设置训练方式和处理方式

上传数据,并等待训练完成

新建应用并测试

新建完成后,在应用内选择刚刚配置的知识库,就可以对话了

对text-embedding理解

问题记录

  1. 会出现多次请求大模型的情况,导致会有重复输出,重启后也没有解决。现在原因还没分析出来。
    如下所示:

    我是在本地cpu电脑上跑的qwen:b的模型,并在FastGPT中提问测试。由于我关联了知识库,会到知识库中找到相似的内容后发给本地大模型,但是我发现参数量比较小的模型不能很好处理较多的输入,所以导致时间很长才会有输出且内容不准确。相关截图如下:


本地text-embedding模型

模型下载

使用ollama下载m3e模型,部署完成后可使用PostMan等工具调用

bash 复制代码
ollama pull milkey/m3e:small-f16

OneAPI一定要使用最新的版本,不然会出现报错

OneAPI配置渠道信息

配置好后可使用postman调用

修改FastGPT的config.json文件

FastGPT上传知识库并训练

新建知识库选择本地知识库模型

上传知识库文件并训练

等待训练完成

FastGPT新建应用并测试

相关推荐
大千AI助手31 分钟前
SWE-bench:真实世界软件工程任务的“试金石”
人工智能·深度学习·大模型·llm·软件工程·代码生成·swe-bench
trigger3331 小时前
大模型的畅享
大模型
ModelWhale1 天前
“大模型”技术专栏 | 浅谈基于 Kubernetes 的 LLM 分布式推理框架架构:概览
分布式·kubernetes·大模型
charlee442 天前
在本地部署Qwen大语言模型全过程总结
大模型·cuda·qwen·量化
狠活科技2 天前
平替 Claude Code,API接入 GPT-5,Codex CLI 国内直接使用教程
chatgpt·ai编程·oneapi
SuperherRo2 天前
Web攻防-大模型应用&LLM安全&提示词注入&不安全输出&代码注入&直接间接&数据投毒
大模型·llm·提示词注入·不安全输出·直接·间接
AI大模型2 天前
基于 Ollama 本地 LLM 大语言模型实现 ChatGPT AI 聊天系统
程序员·llm·ollama
努力还债的学术吗喽2 天前
2020 GPT3 原文 Language Models are Few-Shot Learners 精选注解
gpt·大模型·llm·gpt-3·大语言模型·few-shot·zero-shot
精致先生2 天前
Streamlit实现Qwen对话机器人
python·机器人·大模型·streamlit
ai绘画-安安妮3 天前
零基础学LangChain:核心概念与基础组件解析
人工智能·学习·ai·程序员·langchain·大模型·转行