通义千问-langchain使用构建(三)

目录

序言

在前两天的基础上,将xinference调整为wsl环境,docker部署。

然后langchain chatchat 还是本地虚拟环境直接跑。

以及简单在这个chatchat框架里上传了一个文本文件,询问大模型文件内容。

还行,跑起来了,坑也是不少

docker 部署xinference

1WSL环境docker安装

参考这个链接内容配置下wsl的docker环境,以及配置下国内私人dockerhub镜像源。

【现在竟然没有公司或者学校配置的dockerhub镜像了,奇怪,真奇怪。不配置就要梯子】

参考链接1:https://blog.csdn.net/wylszwr/article/details/147671490

这里有个坑,C盘如果空间不够,wsl最好迁移到D盘,因为大模型挺占空间的。

2拉取镜像运行容器

参考下面这个链接操作一下就好了,然后配置的端口,回头更新在chatchat的yaml文件就行。

【1050ti的显卡,cuda和torch这些版本适配有些麻烦,所以我就拉去的cpu版本镜像。

docker pull xprobe/xinference:latest-cpu】

参考链接2:https://inference.readthedocs.io/zh-cn/latest/getting_started/using_docker_image.html

3使用的界面

加载模型界面

就运行这里lunch模型,要等一会儿

这个运行这里就能看到已经下载到本地的模型了。

语言模型: 就是正常对话的。

嵌入模型embedding模型: 就是把上传的文本材料,解析成向量,搞到知识库的。

重排序rerank模型: 目前简单理解为嵌入模型的升级版(250517)。

参考链接3:https://blog.csdn.net/2401_84033492/article/details/144546055

图像模型: 简单理解为画图的。

音频模型: 简单理解为听声音,转换为声音的。

视频模型: 生成视频的。

本地跑chatchat

和上一篇的调整没啥区别。

就是yaml文件要更新。

【我看有人不建议chatchat在docker跑。我不搞是因为wsl搞docker compose插件有点繁琐】

1rag踩坑

有个问题就是上传文件半天没反应,参考这个降httpx版本就好了。

参考链接:https://blog.csdn.net/ddyzqddwb/article/details/144347702

2使用的界面

2.1配置个前置条件然后对话

2.2rag对话

往上找了个诗经的txt传上去,然后用模型阅读。只是一部分,全是文言文,我自己看着是挺头大的。

上传的文言文材料。

结论

windows机器。

wsl环境。

docker跑xinference

本地python环境跑了chatchat

实现大模型的管理加载,以及简单的知识库构建与rag管理。

这就是这次的内容。

相关推荐
聚客AI9 小时前
ChatGPT到Claude全适配:跨模型Prompt高级设计规范与迁移技巧
人工智能·机器学习·语言模型·自然语言处理·langchain·transformer·llama
后端研发Marion16 小时前
LangFlow技术深度解析:可视化编排LangChain应用的新范式 -(2)流编辑器系统
langchain·智能体·langflow
无心水2 天前
【程序员AI入门:模型】19.开源模型工程化全攻略:从选型部署到高效集成,LangChain与One-API双剑合璧
人工智能·langchain·开源·ai入门·程序员ai开发入门·程序员的 ai 开发第一课·程序员ai入门
lxsy2 天前
langchain 接入国内搜索api——百度AI搜索
langchain·百度ai搜索
明明跟你说过2 天前
掌握 LangChain 文档处理核心:Document Loaders 与 Text Splitters 全解析
人工智能·语言模型·自然语言处理·langchain
ZhangJiQun&MXP3 天前
Top-p采样:解锁语言模型的创意之门
人工智能·深度学习·机器学习·语言模型·自然语言处理·langchain·概率论
珊珊而川4 天前
ChatPromptTemplate创建方式比较
服务器·langchain
fengchengwu20126 天前
langchain4j集成QWen、Redis聊天记忆持久化
redis·langchain·qwen·聊天记忆持久化
AI探子6 天前
【LangChain基础系列】深入全面掌握文本加载器
langchain