千问Qwen7B chat:本地部署及网页端使用

基于前面的安装经验,千问大模型的本地部署并不算难,主要时间用在大模型文件的下载上。同时系统运行对硬件也有较高的要求,本机的硬件配置为N卡3060,显存12G。

  1. 使用conda创建虚拟环境,主要版本如下:

Python 3.9.18

CUDA 12.1

pytorch 2.2.2

  1. 克隆代码到本地

git clone https://github.com/QwenLM/Qwen.git

  1. 进入Qwen目录,执行安装命令

安装依赖

pip install -r requirements.txt

安装 web_demo 依赖

pip install -r requirements_web_demo.txt

  1. 运行命令

python web_demo.py --server-port 8087 --server-name "0.0.0.0"

会下载很多模型文件,需要一点时间。下载完成后启动界面如下

在输入框里输入沟通内容"你是谁"。我们看一下后台输出:

相关推荐
Pkmer2 小时前
Agentic workflow实践:模拟邮件助手工作流
llm·agent
bryant_meng4 小时前
【Hung-yi Lee】《Introduction to Generative Artificial Intelligence》(9)
人工智能·llm·aigc
Pkmer4 小时前
LLM说: 给我Tools,我来安排工作流(Agentic workflows)
llm·agent
舒一笑4 小时前
一文讲透 Temporal:为什么大厂都在用它做 AI 与分布式系统的“流程大脑”?
后端·程序员·llm
数据智能老司机9 小时前
数据契约:AI 时代数据工程最被低估的基建
大数据·人工智能·llm
bryant_meng10 小时前
【Reading Notes】(8.9)Favorite Articles from 2025 September
人工智能·深度学习·llm·资讯
山顶夕景11 小时前
【LLM应用】深度研究报告生成prompt
大模型·llm·prompt
AIminminHu11 小时前
OpenGL渲染与几何内核那点事-项目实践理论补充(二-1-(5):最原始的“命令行”——从 printf 到实时控制台)
llm·agent·关键词
-许平安-11 小时前
MCP项目笔记十二(RAG-MCP)
c++·笔记·llm·rag·mcp
树獭非懒11 小时前
Harness Engineering:为什么你的 AI 不好用,其实不是模型的问题
人工智能·程序员·llm