千问Qwen7B chat:本地部署及网页端使用

基于前面的安装经验,千问大模型的本地部署并不算难,主要时间用在大模型文件的下载上。同时系统运行对硬件也有较高的要求,本机的硬件配置为N卡3060,显存12G。

  1. 使用conda创建虚拟环境,主要版本如下:

Python 3.9.18

CUDA 12.1

pytorch 2.2.2

  1. 克隆代码到本地

git clone https://github.com/QwenLM/Qwen.git

  1. 进入Qwen目录,执行安装命令

安装依赖

pip install -r requirements.txt

安装 web_demo 依赖

pip install -r requirements_web_demo.txt

  1. 运行命令

python web_demo.py --server-port 8087 --server-name "0.0.0.0"

会下载很多模型文件,需要一点时间。下载完成后启动界面如下

在输入框里输入沟通内容"你是谁"。我们看一下后台输出:

相关推荐
间彧25 分钟前
Java程序员系统学习大模型(LLM): 学习路线与知识体系详解
llm
智泊AI25 分钟前
一文讲清:深度学习——自注意力机制是什么?
llm
间彧1 小时前
对于Java程序员来说,学习大模型需要重点补足哪些Python生态知识?
llm
间彧1 小时前
从零开始学习大模型(LLM): 学习路线与知识体系详解
llm
AI大模型3 小时前
12 节课解锁 AI Agents,让AI替你打工(一): 简介
程序员·llm·agent
AI大模型4 小时前
12 节课解锁 AI Agents,让AI替你打工(二):从零开始构建一个Agent
程序员·llm·agent
Baihai_IDP6 小时前
如何提升 LLMs 处理表格的准确率?一项针对 11 种格式的基准测试
人工智能·面试·llm
mwq3012319 小时前
揭秘 MoE 训练的“三驾马车”
llm
mwq3012319 小时前
MoE 负载均衡之争:为何 Mixtral 的“实用主义”胜过了“统计主义”?
llm
深度学习机器1 天前
RAG Chunking 2.0:提升文档分块效果的一些经验
人工智能·算法·llm