【AI基础】第四步:保姆喂饭级-langchain+chatglm2-6b+m3e-base

在第三步手动安装chatglm2-6b时,已经可以通过web进行交互。langchain重新封装了一下AI框架,提供更加友好的开发功能,类似于AI届的spring框架。langchain的安装过程也类似于上一步说的:【AI基础】第三步:纯天然手动安装并运行chatglm2-6b-CSDN博客

此系列文章列表:

【AI基础】第一步:安装python开发环境-windows篇_下载安装ai环境python-CSDN博客

【AI基础】第一步:安装python开发环境-conda篇_minicode怎么换虚拟环境-CSDN博客

【AI基础】第二步:安装AI运行环境-CSDN博客

【AI基础】第三步:纯天然手动安装并运行chatglm2-6b-CSDN博客

【AI基础】第四步:保姆喂饭级-langchain+chatglm2-6b+m3e-base-CSDN博客

一、安装miniconda

参考 【AI基础】第一步:安装python开发环境-conda篇_minicode怎么换虚拟环境-CSDN博客

二、安装CUDA、cuDNN和pyTorch

参考 【AI基础】第二步:安装AI运行环境-CSDN博客

三、安装langchain

3.1 创建python运行环境

bash 复制代码
> conda create --name langchain python=3.11
> conda activate langchain

目前推荐使用python 3.11版本。

3.2 拉取Langchain代码

bash 复制代码
# 拉取最新代码
> git clone https://github.com/chatchat-space/Langchain-Chatchat.git

# 拉取指定版本
> git clone -b v0.2.10 https://github.com/chatchat-space/Langchain-Chatchat.git

这里指定v0.2.10版本。

3.3 安装依赖

bash 复制代码
# 进入项目目录
> cd Langchain-Chatchat
# 安装全部依赖,并使用清华源
> pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple/

安装完成:

3.4 下载模型

这里使用大模型chatglm2-6b和嵌入模型 M3e-base。

3.4.1 大模型chatglm2-6b下载地址:

​​​​​​【AI基础】第三步:纯天然手动安装并运行chatglm2-6b-下载大模型文件-CSDN博客

3.4.2 嵌入模型M3e-base下载地址:

以百度飞浆为例:

下载后解压m3e-base.zip,和另外两个文件放在同一个文件夹,最终结果如下:

3.5 修改配置文件

3.5.1 初始化配置文件

执行命令

bash 复制代码
# 此命令负值配置文件,并移除后缀 example
> python copy_config_example.py

3.5.2 修改model_config.py

3.5.2.1 修改大模型地址

MODEL_PATH = {

"llm_model": {

"chatglm2-6b": "d:\\ai\\llms\\chatglm2-6b",

"chatglm2-6b-32k": "THUDM/chatglm2-6b-32k",

...

}

}

3.5.2.2 修改嵌入模型地址

MODEL_PATH = {

"embed_model": {

...

"m3e-base": "E:\\llm_models\\m3e-base",

"m3e-large": "moka-ai/m3e-large",

...

}

}

3.5.2.3 配置使用的大模型及运行设备

LLM 名称

LLM_MODELS = ["chatglm2-6b"]

LLM 运行设备。设为"auto"会自动检测,也可手动设定为"cuda","mps","cpu"其中之一。

LLM_DEVICE = "cuda"

3.5.2.4 配置使用的嵌入模型及运行设备

选用的 Embedding 名称

EMBEDDING_MODEL = "m3e-base"

Embedding 模型运行设备。设为"auto"会自动检测(会有警告),也可手动设定为"cuda","mps","cpu","xpu"其中之一。

EMBEDDING_DEVICE = "cuda"

3.6 初始化向量库

3.6.1 修复代码

在v0.2.10版本中,初始化向量库时调用了pwd模块,此模块只在linux系统存在,如果在windows下运行会提示错误:

所以这里需要模拟一个pwd模块,在conda的当前环境的lib目录下新建pwd.py

文件内容:

python 复制代码
from os import *
from pwd import *
def get_username():
    return getpwuid(getuid())[0]

3.6.2 初始化向量库

bash 复制代码
> python init_database.py --recreate-vs

运行结果:

四、运行检验

4.1 运行

bash 复制代码
> python startup.py -a

运行结果:

运行成功:

4.2 浏览器访问

默认会打开浏览器并访问 http://127.0.0.1:8501

五、参考

GitHub - Langchain-Chatchat(原Langchain-ChatGLM)

相关推荐
serve the people几秒前
如何区分什么场景下用机器学习,什么场景下用深度学习
人工智能·深度学习·机器学习
xjxijd7 分钟前
Serverless 3.0 混合架构:容器 + 事件驱动,AI 服务弹性伸缩响应快 3 倍
人工智能·架构·serverless
csdn_aspnet11 分钟前
如何用爬虫、机器学习识别方式屏蔽恶意广告
人工智能·爬虫·机器学习
weixin_4577600016 分钟前
RNN(循环神经网络)原理
人工智能·rnn·深度学习
代码AI弗森30 分钟前
意图识别深度原理解析:从向量空间到语义流形
人工智能
姚华军33 分钟前
RagFlow、Dify部署时,端口如何调整成指定端口
人工智能·dify·ragflow
老蒋新思维37 分钟前
创客匠人峰会新视角:AI 时代知识变现的 “组织化转型”—— 从个人 IP 到 “AI+IP” 组织的增长革命
大数据·人工智能·网络协议·tcp/ip·创始人ip·创客匠人·知识变现
JoannaJuanCV44 分钟前
自动驾驶—CARLA仿真(0)报错记录
人工智能·机器学习·自动驾驶
小白狮ww1 小时前
Matlab 教程:基于 RFUAV 系统使用 Matlab 处理无人机信号
开发语言·人工智能·深度学习·机器学习·matlab·无人机·rfuav
飞行增长手记1 小时前
GPT-5.2 全面升级:AI 进入“加速竞争期”,该如何跟上这波红利?
人工智能