千问Qwen7B chat:本地部署及网页端使用

基于前面的安装经验,千问大模型的本地部署并不算难,主要时间用在大模型文件的下载上。同时系统运行对硬件也有较高的要求,本机的硬件配置为N卡3060,显存12G。

  1. 使用conda创建虚拟环境,主要版本如下:

Python 3.9.18

CUDA 12.1

pytorch 2.2.2

  1. 克隆代码到本地

git clone https://github.com/QwenLM/Qwen.git

  1. 进入Qwen目录,执行安装命令

安装依赖

pip install -r requirements.txt

安装 web_demo 依赖

pip install -r requirements_web_demo.txt

  1. 运行命令

python web_demo.py --server-port 8087 --server-name "0.0.0.0"

会下载很多模型文件,需要一点时间。下载完成后启动界面如下

在输入框里输入沟通内容"你是谁"。我们看一下后台输出:

相关推荐
智泊AI6 小时前
模型蒸馏的核心是什么?蒸馏过程是怎样的?为什么要做模型蒸馏?
llm
腾讯云开发者8 小时前
从 RAG 到 KAG :结构化思考范式下的复杂推理
llm
16324015419 小时前
回顾-DeepSeekMoE[1]
llm
大模型教程9 小时前
一文搞懂 LLM 的 Transformer!看完能和别人吹一年
程序员·llm·agent
大模型教程9 小时前
LangChain 核心原理-核心组件&应用开发类型 01
langchain·llm·agent
mwq3012310 小时前
Cursor Tab 共享无限车
llm
AI大模型11 小时前
RAG不会过时,但你需要这10个上下文处理技巧丨Context Engineering
程序员·llm·agent
AI大模型11 小时前
万人收藏的提示词工程指导白皮书(附中文版)!Google官方出品,看完整个人都通透了
程序员·llm·agent
Baihai_IDP13 小时前
剖析大模型产生幻觉的三大根源
人工智能·面试·llm
EdisonZhou13 小时前
MAF快速入门(3)聊天记录持久化到数据库
llm·aigc·agent·.net core