千问Qwen7B chat:本地部署及网页端使用

基于前面的安装经验,千问大模型的本地部署并不算难,主要时间用在大模型文件的下载上。同时系统运行对硬件也有较高的要求,本机的硬件配置为N卡3060,显存12G。

  1. 使用conda创建虚拟环境,主要版本如下:

Python 3.9.18

CUDA 12.1

pytorch 2.2.2

  1. 克隆代码到本地

git clone https://github.com/QwenLM/Qwen.git

  1. 进入Qwen目录,执行安装命令

安装依赖

pip install -r requirements.txt

安装 web_demo 依赖

pip install -r requirements_web_demo.txt

  1. 运行命令

python web_demo.py --server-port 8087 --server-name "0.0.0.0"

会下载很多模型文件,需要一点时间。下载完成后启动界面如下

在输入框里输入沟通内容"你是谁"。我们看一下后台输出:

相关推荐
sg_knight4 小时前
OpenClaw 能做什么?几个真实使用场景说明
算法·ai·大模型·llm·agent·openclaw·小龙虾
rgb2gray6 小时前
论文详解 | HDAM:破解 MAUP 的城市出行需求分析新方法,实现关键驱动精准识别
人工智能·python·llm·大语言模型·需求分析·多模态·maup
gustt7 小时前
从零搭建电子书RAG问答系统:Milvus + LangChain实战指南
人工智能·llm
CHPCWWHSU12 小时前
llama-server - 从命令行到HTTP Server
llm·llama·cpp·cudatoolkit
WitsMakeMen1 天前
RoPE 算法原理?算法为什么只和相对位置有关
人工智能·算法·llm
ErizJ1 天前
LLM | 训练与推理过程
llm·大语言模型·training
70asunflower1 天前
LLM几种主要的开源方式及优劣
人工智能·llm
fids1 天前
大模型面试题
人工智能·llm
猫头_1 天前
RAG 全链路深度拆解:“大白”学习RAG的极简指南
人工智能·langchain·llm
Tzarevich1 天前
别再信它“一本正经地胡说”了!用 RAG终结大模型“幻觉”
后端·langchain·llm