千问Qwen7B chat:本地部署及网页端使用

基于前面的安装经验,千问大模型的本地部署并不算难,主要时间用在大模型文件的下载上。同时系统运行对硬件也有较高的要求,本机的硬件配置为N卡3060,显存12G。

  1. 使用conda创建虚拟环境,主要版本如下:

Python 3.9.18

CUDA 12.1

pytorch 2.2.2

  1. 克隆代码到本地

git clone https://github.com/QwenLM/Qwen.git

  1. 进入Qwen目录,执行安装命令

安装依赖

pip install -r requirements.txt

安装 web_demo 依赖

pip install -r requirements_web_demo.txt

  1. 运行命令

python web_demo.py --server-port 8087 --server-name "0.0.0.0"

会下载很多模型文件,需要一点时间。下载完成后启动界面如下

在输入框里输入沟通内容"你是谁"。我们看一下后台输出:

相关推荐
AI大模型1 小时前
LangGraph官方文档笔记(4)——提示聊天机器人
程序员·langchain·llm
Baihai_IDP2 小时前
vec2text 技术已开源!一定条件下,文本嵌入向量可“近乎完美地”还原
人工智能·面试·llm
养心进行时3 小时前
为什么模型训练中会有“机器评分高,但人工评分却很差”的情况?
llm
养心进行时3 小时前
大模型微调后,可上线的标准是什么?
llm
Chirp4 小时前
代码层面上解读Florence2模型,专用于视觉任务的小体积语言模型
llm
阿星AI工作室10 天前
魔塔+LLaMa Factory 零基础体验模型微调
人工智能·后端·llm
玩转AGI10 天前
Coze篇-搭建智能助教智能体
人工智能·llm·coze
用户8009135524410 天前
让AI“越用越懂你”的秘密:我是如何从0到1设计一个AI置信度系统的?
人工智能·llm
代码里程碑10 天前
手把手构建TinyCodeRAG
llm
LLM大模型10 天前
LangGraph篇-ReAct应用
人工智能·程序员·llm