千问Qwen7B chat:本地部署及网页端使用

基于前面的安装经验,千问大模型的本地部署并不算难,主要时间用在大模型文件的下载上。同时系统运行对硬件也有较高的要求,本机的硬件配置为N卡3060,显存12G。

  1. 使用conda创建虚拟环境,主要版本如下:

Python 3.9.18

CUDA 12.1

pytorch 2.2.2

  1. 克隆代码到本地

git clone https://github.com/QwenLM/Qwen.git

  1. 进入Qwen目录,执行安装命令

安装依赖

pip install -r requirements.txt

安装 web_demo 依赖

pip install -r requirements_web_demo.txt

  1. 运行命令

python web_demo.py --server-port 8087 --server-name "0.0.0.0"

会下载很多模型文件,需要一点时间。下载完成后启动界面如下

在输入框里输入沟通内容"你是谁"。我们看一下后台输出:

相关推荐
RockHopper20256 小时前
一种认知孪生xLLM架构的原理说明
人工智能·llm·数字孪生·认知孪生
沛沛老爹6 小时前
Web开发者实战RAG评估:从指标到工程化验证体系
前端·人工智能·llm·agent·rag·评估
玄同7657 小时前
Python 数据类型:LLM 语料与 API 参数的底层处理逻辑
开发语言·人工智能·python·自然语言处理·llm·nlp·知识图谱
玄同7659 小时前
Python 真零基础入门:从 “什么是编程” 到 LLM Prompt 模板生成
人工智能·python·语言模型·自然语言处理·llm·nlp·prompt
菠菠萝宝10 小时前
从传统后端到AI智能驱动:Java + AI 生态深度实战技术总结
java·人工智能·ai·llm·知识图谱·ai编程·rag
RockHopper202511 小时前
企业运营认知机器人的落地规范说明 —— 一种以工程化实现/商业化落地为目的设计原则
人工智能·llm·认知机器人·认知导向
沛沛老爹12 小时前
Web开发者实战多模态RAG:图表文检索系统从0到1
llm·多模态·rag·深度优化·web转型ai·图文联合
xhxxx1 天前
传统工具调用太痛苦?LangChain 一键打通 LLM 与真实世界
前端·langchain·llm
每天都要写算法(努力版)1 天前
【混合注意力模型的 KV Cache 设计与统一管理实践解析】
llm·vllm·kv cache