千问Qwen7B chat:本地部署及网页端使用

基于前面的安装经验,千问大模型的本地部署并不算难,主要时间用在大模型文件的下载上。同时系统运行对硬件也有较高的要求,本机的硬件配置为N卡3060,显存12G。

  1. 使用conda创建虚拟环境,主要版本如下:

Python 3.9.18

CUDA 12.1

pytorch 2.2.2

  1. 克隆代码到本地

git clone https://github.com/QwenLM/Qwen.git

  1. 进入Qwen目录,执行安装命令

安装依赖

pip install -r requirements.txt

安装 web_demo 依赖

pip install -r requirements_web_demo.txt

  1. 运行命令

python web_demo.py --server-port 8087 --server-name "0.0.0.0"

会下载很多模型文件,需要一点时间。下载完成后启动界面如下

在输入框里输入沟通内容"你是谁"。我们看一下后台输出:

相关推荐
土豆12508 小时前
🚀 RAG系统构建指南:从「为什么」到「怎么做」
llm
智泊AI8 小时前
为什么说CLIP是多模态大模型的基石?
llm
鱼鱼块10 小时前
"从自然语言到数据库:AI First 时代的编程与开发革命"
sqlite·llm·openai
ohyeah12 小时前
AI First 时代:用大模型构建轻量级后台管理系统
前端·llm
Swizard13 小时前
Claude Opus 4.5 深度解构:当 AI 学会了“拒绝道歉”与“痛恨列表”
ai·llm·prompt·claude
企鹅侠客13 小时前
Ubuntu本地部署AnythingLLM实现本地文档RAG
linux·运维·ubuntu·llm
缘友一世15 小时前
Unsloth高效微调实战:基于DeepSeek-R1-Distill-Llama-8B与医疗R1数据
llm·模型微调·unsloth·deepseek
kida_yuan17 小时前
【从零开始】19. 模型实测与验证
人工智能·llm
沛沛老爹18 小时前
LangGraph系列9 :调试、日志与可观测性 —— 当你的 AI 智能体突然精神分裂,如何 5 分钟定位故障?
人工智能·langchain·llm·调试·rag·langgraph·ai入门
有意义18 小时前
说人话,查数据:构建一个自然语言驱动的 SQLite 后台
sqlite·llm·deepseek