fastGpt

参考本地部署FastGPT使用在线大语言模型

1 rockylinx

1 ollama安装

在rockylinux中安装的,ollama由1.5G,还是比较大,所有采用在windows下下载,然后安装的方式,linux安装

bash 复制代码
tar -C /usr -xzf ollama-linux-amd64.tgz
# 命令窗口启动
ollama serve
# 新开一个窗口
# 下载千问大模型
ollama run qwen:7b
# 下载词向量大模型
ollama pull shaw/dmeta-embedding-zh

dmeta-embedding-zh下载哈后,直接输入,查看运行情况

bash 复制代码
curl http://localhost:11434/api/embeddings -d '{
  "model": "shaw/dmeta-embedding-zh",
  "prompt": "天空是灰色的"
}'

出现下面的结果标识运行成功

后台启动

bash 复制代码
cat > /etc/systemd/system/ollama.service <<EOF
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
User=root
ExecStart=/usr/bin/ollama serve
Restart=always
RestartSec=3
Environment="OLLAMA_HOST=0.0.0.0"

[Install]
WantedBy=default.target
EOF

systemctl daemon-reload
systemctl enable ollama 
systemctl start ollama 

2 安装fastGpt

搭建企业级知识库问答系统,本地、免费、私有化、离线、零成本,根据这个地址提供docker-compose文件安装

因为fastgpt依赖mysql、postgre、mongodb,直接执行不成功。

bash 复制代码
[root@bw5 ~]# cat /etc/docker/daemon.json 
{
  "registry-mirrors": ["https://你自己的.mirror.aliyuncs.com",
	  "https://docker.m.daocloud.io",
	  "https://dockerhub.timeweb.cloud"
],
"insecure-registries":["10.8.15.225", "10.101.10.200","10.101.12.200"]
}

于是换了一种方式,在docker-compose.yml中镜像的地址都改成自己私有harbor仓库,从自己的私有库下载就没有安装的烦恼。

bash 复制代码
# 将镜像一个个pull
docker pull registry.cn-hangzhou.aliyuncs.com/fastgpt/fastgpt:v4.8.1 
# 打标签上传到自己私有的harbor中
docker tag registry.cn-hangzhou.aliyuncs.com/fastgpt/fastgpt:v4.8.1 10.101.12.200/gpt/fastgpt:v4.8.1
docker push 10.101.12.200/gpt/fastgpt:v4.8.1

启动后,fastgpt的默认密码为:1234,默认端口3000

在fastgpt中创建本地知识库,索引模型dmeta-embedding-zh,文件处理模型采用qwen:7b

手工录入问题,出现问题,因为oneapi中渠道模型必须与shaw/dmeta-embedding-zh保证一致。从下图检测,语义检索成功

接下来创建一个带知识库的应用,保存的时候提示下面的错误。

点击关联知识库中参数,查看问题优化哪里的模型不正确,需要再调整一下

3 openapi

oneapi的默认密码是123456:默认端口为3001,两者默认用户名均是root

新建渠道,使用qwen:7b模型

点击测试,提示下面的错误,这个与视频中说的错误不一致。

通过fastgpt验证,也是同样的问题。

因为前面ollama是本地root用户安装,通过窗口启动,于是改写了一些脚本,再启动脚本中执行Environment="OLLAMA_HOST=0.0.0.0",就可以了。

成功后,调一下黑悟空,发现qwen:7b模型他并不知道。

2 windows

2.1 docker

安装docker desktop

待完善

相关推荐
Heartsuit6 小时前
LLM大语言模型私有化部署-使用Dify的工作流编排打造专属AI搜索引擎
人工智能·dify·ollama·qwen2.5·ai搜索引擎·tavily search·工作流编排
Engineer-Yao16 小时前
【win10+RAGFlow+Ollama】搭建本地大模型助手(教程+源码)
docker·大模型·win10·wsl·ollama·本地大模型·ragflow
handsomelky3 天前
ollama本地部署大语言模型记录
人工智能·语言模型·自然语言处理·chatgpt·llama·ollama·gemma
陈思杰系统思考Jason8 天前
系统思考沙盘模拟
微信·微信公众平台·oneapi·新浪微博·微信开放平台
少喝冰美式13 天前
docker-compose本地部署FastGPT与简单使用
深度学习·docker·自然语言处理·大模型·llm·大语言模型·fastgpt
AI程序猿人18 天前
(译)提示词工程指南:如何写出让AI更听话的提示词(Prompt)?| 附完整示例和小学生版本
人工智能·自然语言处理·llm·prompt·知识图谱·ollama·大模型应用
AI小白龙*1 个月前
Windows环境下搭建Qwen开发环境
人工智能·windows·自然语言处理·llm·llama·ai大模型·ollama
Estar.Lee1 个月前
查手机号归属地免费API接口教程
android·网络·后端·网络协议·tcp/ip·oneapi
lpcarl1 个月前
Ubuntu安装ollama,并运行ollama和通义千问,使用gradio做界面
ubuntu·gradio·ollama
DbWong_09181 个月前
langchain_chatchat+ollama部署本地知识库,联网查询以及对数据库(Oracle)数据进行查询
python·oracle·langchain·ollama