fastGpt

参考本地部署FastGPT使用在线大语言模型

1 rockylinx

1 ollama安装

在rockylinux中安装的,ollama由1.5G,还是比较大,所有采用在windows下下载,然后安装的方式,linux安装

bash 复制代码
tar -C /usr -xzf ollama-linux-amd64.tgz
# 命令窗口启动
ollama serve
# 新开一个窗口
# 下载千问大模型
ollama run qwen:7b
# 下载词向量大模型
ollama pull shaw/dmeta-embedding-zh

dmeta-embedding-zh下载哈后,直接输入,查看运行情况

bash 复制代码
curl http://localhost:11434/api/embeddings -d '{
  "model": "shaw/dmeta-embedding-zh",
  "prompt": "天空是灰色的"
}'

出现下面的结果标识运行成功

后台启动

bash 复制代码
cat > /etc/systemd/system/ollama.service <<EOF
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
User=root
ExecStart=/usr/bin/ollama serve
Restart=always
RestartSec=3
Environment="OLLAMA_HOST=0.0.0.0"

[Install]
WantedBy=default.target
EOF

systemctl daemon-reload
systemctl enable ollama 
systemctl start ollama 

2 安装fastGpt

搭建企业级知识库问答系统,本地、免费、私有化、离线、零成本,根据这个地址提供docker-compose文件安装

因为fastgpt依赖mysql、postgre、mongodb,直接执行不成功。

bash 复制代码
[root@bw5 ~]# cat /etc/docker/daemon.json 
{
  "registry-mirrors": ["https://你自己的.mirror.aliyuncs.com",
	  "https://docker.m.daocloud.io",
	  "https://dockerhub.timeweb.cloud"
],
"insecure-registries":["10.8.15.225", "10.101.10.200","10.101.12.200"]
}

于是换了一种方式,在docker-compose.yml中镜像的地址都改成自己私有harbor仓库,从自己的私有库下载就没有安装的烦恼。

bash 复制代码
# 将镜像一个个pull
docker pull registry.cn-hangzhou.aliyuncs.com/fastgpt/fastgpt:v4.8.1 
# 打标签上传到自己私有的harbor中
docker tag registry.cn-hangzhou.aliyuncs.com/fastgpt/fastgpt:v4.8.1 10.101.12.200/gpt/fastgpt:v4.8.1
docker push 10.101.12.200/gpt/fastgpt:v4.8.1

启动后,fastgpt的默认密码为:1234,默认端口3000

在fastgpt中创建本地知识库,索引模型dmeta-embedding-zh,文件处理模型采用qwen:7b

手工录入问题,出现问题,因为oneapi中渠道模型必须与shaw/dmeta-embedding-zh保证一致。从下图检测,语义检索成功

接下来创建一个带知识库的应用,保存的时候提示下面的错误。

点击关联知识库中参数,查看问题优化哪里的模型不正确,需要再调整一下

3 openapi

oneapi的默认密码是123456:默认端口为3001,两者默认用户名均是root

新建渠道,使用qwen:7b模型

点击测试,提示下面的错误,这个与视频中说的错误不一致。

通过fastgpt验证,也是同样的问题。

因为前面ollama是本地root用户安装,通过窗口启动,于是改写了一些脚本,再启动脚本中执行Environment="OLLAMA_HOST=0.0.0.0",就可以了。

成功后,调一下黑悟空,发现qwen:7b模型他并不知道。

2 windows

2.1 docker

安装docker desktop

待完善

相关推荐
仙魁XAN2 天前
AGI 之 【Dify】 之 Dify 在 Windows 端本地部署调用 Ollama 本地下载的大模型,实现 API 形式进行聊天对话
api·qwen·dify·1024程序员节·ollama
努力的小Qin5 天前
Fastgpt学习(4)- 使用Github Action构建Docker镜像
docker·容器·github·fastgpt·1024程序员节
beyond阿亮7 天前
Ollama前端页面调用大模型 知识问答 模型切换
ai·大模型·ollama
乐渔leyu8 天前
deepin V23 部署Ollama
ollama·deepin v23
努力的小Qin8 天前
FastGPT本地开发 之 通过Navicat管理MongoDB、PostgreSQL数据库
数据库·mongodb·postgresql·大模型·fastgpt
一路追寻12 天前
使用Ollama测试OpenAI的Swarm多智能体编排框架
llm·openai·agent·swarm·ollama·qwen2.5
努力的小Qin18 天前
Fastgpt本地化部署 - 以MAC为例
人工智能·语言模型·fastgpt
LeslieChan_专业海外留学服务1 个月前
美本申请怎么填写课外活动?这些细节值得注意
c++·uni-app·c#·oneapi·cmmi·墨刀
wxl7812271 个月前
如何让ollama本地模型使用code-interpreter(代码解释器)?
python·code·ollama·本地大模型·interperter·代码解释器