千问Qwen7B chat:本地部署及网页端使用

基于前面的安装经验,千问大模型的本地部署并不算难,主要时间用在大模型文件的下载上。同时系统运行对硬件也有较高的要求,本机的硬件配置为N卡3060,显存12G。

  1. 使用conda创建虚拟环境,主要版本如下:

Python 3.9.18

CUDA 12.1

pytorch 2.2.2

  1. 克隆代码到本地

git clone https://github.com/QwenLM/Qwen.git

  1. 进入Qwen目录,执行安装命令

安装依赖

pip install -r requirements.txt

安装 web_demo 依赖

pip install -r requirements_web_demo.txt

  1. 运行命令

python web_demo.py --server-port 8087 --server-name "0.0.0.0"

会下载很多模型文件,需要一点时间。下载完成后启动界面如下

在输入框里输入沟通内容"你是谁"。我们看一下后台输出:

相关推荐
未来魔导42 分钟前
Gin版本的路由总结
开发语言·llm·gin·路由
mingchen_peng2 小时前
第三章 大语言模型基础
大模型·llm·hello-agent
骚戴3 小时前
深入解析:Gemini 3.0 Pro 的 SSE 流式响应与跨区域延迟优化实践
java·人工智能·python·大模型·llm
智泊AI3 小时前
为什么Anthropic说:AI的未来是Skills不是Agent?
llm
CoderJia程序员甲4 小时前
GitHub 热榜项目 - 日榜(2025-12-15)
git·ai·开源·llm·github
未来魔导6 小时前
PocketBase的自定义任务【专供LLM请求耗时任务】
llm·延时任务·pocketbase
Robot侠6 小时前
极简LLM入门指南1
llm·llama
大模型教程7 小时前
这份中国人写的大模型书,在外网竟然被刷爆了!
程序员·llm·agent
大模型教程7 小时前
大模型入门指南 - Training:小白也能看懂的“模型训练”全解析
程序员·llm·agent
AI大模型8 小时前
一文读懂大模型智能体(Agent):从理论到实践
程序员·llm·agent