千问Qwen7B chat:本地部署及网页端使用

基于前面的安装经验,千问大模型的本地部署并不算难,主要时间用在大模型文件的下载上。同时系统运行对硬件也有较高的要求,本机的硬件配置为N卡3060,显存12G。

  1. 使用conda创建虚拟环境,主要版本如下:

Python 3.9.18

CUDA 12.1

pytorch 2.2.2

  1. 克隆代码到本地

git clone https://github.com/QwenLM/Qwen.git

  1. 进入Qwen目录,执行安装命令

安装依赖

pip install -r requirements.txt

安装 web_demo 依赖

pip install -r requirements_web_demo.txt

  1. 运行命令

python web_demo.py --server-port 8087 --server-name "0.0.0.0"

会下载很多模型文件,需要一点时间。下载完成后启动界面如下

在输入框里输入沟通内容"你是谁"。我们看一下后台输出:

相关推荐
DO_Community5 分钟前
DigitalOcean 基于 NVIDIA GPU 如何为 Workato 降低 67% AI 推理成本
人工智能·llm·aigc
EdisonZhou13 小时前
MAF快速入门(19)给Agent Skill添加脚本执行能力
llm·agent·.net core
吴佳浩16 小时前
什么是算力?
人工智能·pytorch·llm
爱可生开源社区17 小时前
🧪 你的大模型实验室开张啦!亲手测出最懂你 SQL 的 AI
数据库·sql·llm
数据智能老司机18 小时前
Kubernetes 上的生成式 AI——模型定制化
kubernetes·llm
gustt1 天前
深入浅出RAG:检索增强生成技术详解与实践
人工智能·llm
gustt1 天前
LangChain中的RAG Loader:从网页加载文档并实现智能分割与检索
人工智能·langchain·llm
Baihai_IDP1 天前
为什么 AI 巨头们放弃私有壁垒,争相拥抱 Agent Skills
人工智能·面试·llm
stark张宇1 天前
避坑指南:Windows 用户安装 OpenClaw 的正确姿势,拒绝失败率 100%
人工智能·后端·llm
DigitalOcean2 天前
DigitalOcean 基于 NVIDIA GPU 如何为 Workato 降低 67% AI 推理成本
llm·aigc