fastGpt

参考本地部署FastGPT使用在线大语言模型

1 rockylinx

1 ollama安装

在rockylinux中安装的,ollama由1.5G,还是比较大,所有采用在windows下下载,然后安装的方式,linux安装

bash 复制代码
tar -C /usr -xzf ollama-linux-amd64.tgz
# 命令窗口启动
ollama serve
# 新开一个窗口
# 下载千问大模型
ollama run qwen:7b
# 下载词向量大模型
ollama pull shaw/dmeta-embedding-zh

dmeta-embedding-zh下载哈后,直接输入,查看运行情况

bash 复制代码
curl http://localhost:11434/api/embeddings -d '{
  "model": "shaw/dmeta-embedding-zh",
  "prompt": "天空是灰色的"
}'

出现下面的结果标识运行成功

后台启动

bash 复制代码
cat > /etc/systemd/system/ollama.service <<EOF
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
User=root
ExecStart=/usr/bin/ollama serve
Restart=always
RestartSec=3
Environment="OLLAMA_HOST=0.0.0.0"

[Install]
WantedBy=default.target
EOF

systemctl daemon-reload
systemctl enable ollama 
systemctl start ollama 

2 安装fastGpt

搭建企业级知识库问答系统,本地、免费、私有化、离线、零成本,根据这个地址提供docker-compose文件安装

因为fastgpt依赖mysql、postgre、mongodb,直接执行不成功。

bash 复制代码
[root@bw5 ~]# cat /etc/docker/daemon.json 
{
  "registry-mirrors": ["https://你自己的.mirror.aliyuncs.com",
	  "https://docker.m.daocloud.io",
	  "https://dockerhub.timeweb.cloud"
],
"insecure-registries":["10.8.15.225", "10.101.10.200","10.101.12.200"]
}

于是换了一种方式,在docker-compose.yml中镜像的地址都改成自己私有harbor仓库,从自己的私有库下载就没有安装的烦恼。

bash 复制代码
# 将镜像一个个pull
docker pull registry.cn-hangzhou.aliyuncs.com/fastgpt/fastgpt:v4.8.1 
# 打标签上传到自己私有的harbor中
docker tag registry.cn-hangzhou.aliyuncs.com/fastgpt/fastgpt:v4.8.1 10.101.12.200/gpt/fastgpt:v4.8.1
docker push 10.101.12.200/gpt/fastgpt:v4.8.1

启动后,fastgpt的默认密码为:1234,默认端口3000

在fastgpt中创建本地知识库,索引模型dmeta-embedding-zh,文件处理模型采用qwen:7b

手工录入问题,出现问题,因为oneapi中渠道模型必须与shaw/dmeta-embedding-zh保证一致。从下图检测,语义检索成功

接下来创建一个带知识库的应用,保存的时候提示下面的错误。

点击关联知识库中参数,查看问题优化哪里的模型不正确,需要再调整一下

3 openapi

oneapi的默认密码是123456:默认端口为3001,两者默认用户名均是root

新建渠道,使用qwen:7b模型

点击测试,提示下面的错误,这个与视频中说的错误不一致。

通过fastgpt验证,也是同样的问题。

因为前面ollama是本地root用户安装,通过窗口启动,于是改写了一些脚本,再启动脚本中执行Environment="OLLAMA_HOST=0.0.0.0",就可以了。

成功后,调一下黑悟空,发现qwen:7b模型他并不知道。

2 windows

2.1 docker

安装docker desktop

待完善

相关推荐
大模型教程6 天前
本地AI知识库问答开源技术实现(二)--配置模型和知识库
程序员·llm·ollama
正经教主7 天前
【慢教程】Ollama4:ollama命令汇总
人工智能·ollama
智能建造小硕7 天前
使用LLM(Ollama部署)为Bertopic确定的主题命名
llm·ollama
罗光记8 天前
Anthropic 支持加州 AI 安全法案
经验分享·百度·oneapi·twitter·segmentfault
最菜灰夫人9 天前
在Ubuntu 20.04上安装Ollama并部署大型语言模型:含Open WebUI图形界面教程
ollama
罗光记12 天前
Karmada v1.15 版本发布
数据库·百度·facebook·oneapi·segmentfault
狂炫一碗大米饭17 天前
使用 Ollama搭建代理ai工作流
ollama
我想说一句20 天前
Next.js+Ollama本地聊天模型应用!
前端·next.js·ollama
G等你下课21 天前
使用 Ollama 本地部署 AI 聊天应用
next.js·ollama
AI大模型21 天前
重磅!Ollama发布UI界面,告别命令窗口!
程序员·llm·ollama