第十一篇-Tesla P40+Text-Generation-Webui

部署环境

复制代码
系统:CentOS-7
CPU: 14C28T
显卡:Tesla P40 24G
驱动: 515
CUDA: 11.7
cuDNN: 8.9.2.26

介绍

复制代码
简单好用(当然速度不是最快的),
支持多种方式加载模型,transformers, llama.cpp, ExLlama, AutoGPTQ, GPTQ-for-LLaMa, ctransformers
支持多类模型, Llama-2-chat, Alpaca, Vicuna, WizardLM, StableLM等
图形化界面聊天,微调

下载模型

复制代码
https://huggingface.co/lmsys/vicuna-7b-v1.5

一个一个下载,文件下载比较耗时,可以使用浏览器下载,我用的是QQ浏览器,多点多试几次

创建虚拟环境

复制代码
conda create -n textgen python=3.10

conda activate textgen

git clone https://github.com/oobabooga/text-generation-webui
cd text-generation-webui

pip install -r requirements.txt  -i https://pypi.tuna.tsinghua.edu.cn/simple

这里的安装需要访问github,注意自己网络可以访问github,

如果不能或者超时请重试

或者改用相应国内github镜像

移动模型

把下载好的模型文件夹放到models目录下

通过不同文件夹区别模型

复制代码
[root@ai-server ~]# cd /opt/ai-server/text-generation-webui/models/
[root@ai-server models]# ll -h
total 8.0K
-rw-r--r--. 1 root root 7.3K Aug 15 10:47 config.yaml
-rw-r--r--. 1 root root    0 Aug 15 10:47 place-your-models-here.txt
lrwxrwxrwx. 1 root root   30 Aug 16 09:43 Vicuna-13b-v1.3.0-GPTQ -> /models/Vicuna-13b-v1.3.0-GPTQ
lrwxrwxrwx. 1 root root   28 Aug 16 09:43 Vicuna-13b-v1.5-GGML -> /models/Vicuna-13b-v1.5-GGML
lrwxrwxrwx. 1 root root   23 Aug 16 09:43 Vicuna-33B-GPTQ -> /models/Vicuna-33B-GPTQ
lrwxrwxrwx. 1 root root   27 Aug 17 10:43 Vicuna-7B-v1.5-GPTQ -> /models/Vicuna-7B-v1.5-GPTQ
lrwxrwxrwx. 1 root root   32 Aug 17 10:00 WizardCoder-15B-1.0-GPTQ -> /models/WizardCoder-15B-1.0-GPTQ
lrwxrwxrwx. 1 root root   30 Aug 17 10:00 WizardLM-13B-V1.2-GPTQ -> /models/WizardLM-13B-V1.2-GPTQ

可以创建软连接

复制代码
ln -s /models/Vicuna-7B-v1.5-GPTQ /opt/ai-server/text-generation-webui/models/Vicuna-7B-v1.5-GPTQ
ln -s 已存在的文件夹	新链接文件夹

启动

复制代码
python server.py --listen --listen-host 192.168.31.232 --listen-port 7860

访问配置

复制代码
http://192.168.31.232:7860

配置模型,点击Model
1、选择第一个下拉框,选择你要加载的模型
2、可以选择Model loader使用想要的加载器加载,有多种可以选择,根据你下载的模型格式选择相应的
3、点击Load加载模型
    Loading Vicuna-7B-v1.5-GPTQ...
    Successfully loaded Vicuna-7B-v1.5-GPTQ
    说明加载成功
配置参数,点击Parameters
    可以配置许多参数,比如max_new_tokens
可是体验,点击Chat
    在input输入你的内容
    点击Generate等待回答

速度性能

复制代码
在启动服务控制台会打印回答速度
例如:
    Output generated in 19.92 seconds (1.10 tokens/s, 22 tokens, context 43, seed 1673505503)
Tesla P40速度还是非常慢的,建议使用其他性能更好的显卡

参考

  1. https://github.com/oobabooga/text-generation-webui

问题解决

  1. 在安装text-generation-webui时如果出现cmake,gcc,g++等问题,考虑升级gcc,g++版本
    升级

    wget --no-check-certificate https://copr.fedorainfracloud.org/coprs/mayeut/devtoolset-8/repo/epel-6/mayeut-devtoolset-8-epel-6.repo -O /etc/yum.repos.d/devtoolset-8.repo

    yum makecache

    yum -y install devtoolset-8-gcc devtoolset-8-gcc-c++ devtoolset-8-binutils

    scl enable devtoolset-8 bash

    gcc -v

    g++ -v

相关推荐
狂炫冰美式21 分钟前
3天,1人,从0到付费产品:AI时代个人开发者的生存指南
前端·人工智能·后端
LCG元1 小时前
垂直Agent才是未来:详解让大模型"专业对口"的三大核心技术
人工智能
我不是QI1 小时前
周志华《机器学习—西瓜书》二
人工智能·安全·机器学习
操练起来1 小时前
【昇腾CANN训练营·第八期】Ascend C生态兼容:基于PyTorch Adapter的自定义算子注册与自动微分实现
人工智能·pytorch·acl·昇腾·cann
KG_LLM图谱增强大模型2 小时前
[500页电子书]构建自主AI Agent系统的蓝图:谷歌重磅发布智能体设计模式指南
人工智能·大模型·知识图谱·智能体·知识图谱增强大模型·agenticai
声网2 小时前
活动推荐丨「实时互动 × 对话式 AI」主题有奖征文
大数据·人工智能·实时互动
caiyueloveclamp2 小时前
【功能介绍03】ChatPPT好不好用?如何用?用户操作手册来啦!——【AI溯源篇】
人工智能·信息可视化·powerpoint·ai生成ppt·aippt
q***48412 小时前
Vanna AI:告别代码,用自然语言轻松查询数据库,领先的RAG2SQL技术让结果更智能、更精准!
人工智能·microsoft
LCG元2 小时前
告别空谈!手把手教你用LangChain构建"能干活"的垂直领域AI Agent
人工智能
想你依然心痛3 小时前
视界无界:基于Rokid眼镜的AI商务同传系统开发与实践
人工智能·智能硬件·rokid·ai眼镜·ar技术