千问Qwen7B chat:本地部署及网页端使用

基于前面的安装经验,千问大模型的本地部署并不算难,主要时间用在大模型文件的下载上。同时系统运行对硬件也有较高的要求,本机的硬件配置为N卡3060,显存12G。

  1. 使用conda创建虚拟环境,主要版本如下:

Python 3.9.18

CUDA 12.1

pytorch 2.2.2

  1. 克隆代码到本地

git clone https://github.com/QwenLM/Qwen.git

  1. 进入Qwen目录,执行安装命令

安装依赖

pip install -r requirements.txt

安装 web_demo 依赖

pip install -r requirements_web_demo.txt

  1. 运行命令

python web_demo.py --server-port 8087 --server-name "0.0.0.0"

会下载很多模型文件,需要一点时间。下载完成后启动界面如下

在输入框里输入沟通内容"你是谁"。我们看一下后台输出:

相关推荐
Aspect of twilight3 小时前
LLM输出方式(generate)详解
人工智能·深度学习·llm
我书读的少你可别骗我3 小时前
实测 MiniMax M2.1:国产大模型能替代 Claude 做项目吗?
llm·ai编程
青衫客364 小时前
从“模型路径缺失”到“镜像格式错误”:一次 MindIE 容器部署的完整 Debug 复盘
大模型·llm
沛沛老爹4 小时前
Web开发者快速上手AI Agent:基于Function Calling的提示词应用优化实战
java·人工智能·llm·agent·web·企业开发·function
小小小怪兽4 小时前
聊聊上下文工程👷
设计模式·llm
山顶夕景5 小时前
【Agent】基于multi-agent的智能旅行助手
llm·agent·智能体·llm应用
智泊AI15 小时前
RAG知识库远远没有你想象中的那么简单!
llm
EdisonZhou19 小时前
MAF快速入门(10)循环工作流
llm·aigc·agent·.net core
山顶夕景20 小时前
【KD】Generalized Knowledge Distillation和On-Policy Distillation
大模型·llm·知识蒸馏
DigitalOcean21 小时前
长文档也能稳健推理:QwenLong-L1.5 的记忆增强架构与实战部署指南
llm·aigc