千问Qwen7B chat:本地部署及网页端使用

基于前面的安装经验,千问大模型的本地部署并不算难,主要时间用在大模型文件的下载上。同时系统运行对硬件也有较高的要求,本机的硬件配置为N卡3060,显存12G。

  1. 使用conda创建虚拟环境,主要版本如下:

Python 3.9.18

CUDA 12.1

pytorch 2.2.2

  1. 克隆代码到本地

git clone https://github.com/QwenLM/Qwen.git

  1. 进入Qwen目录,执行安装命令

安装依赖

pip install -r requirements.txt

安装 web_demo 依赖

pip install -r requirements_web_demo.txt

  1. 运行命令

python web_demo.py --server-port 8087 --server-name "0.0.0.0"

会下载很多模型文件,需要一点时间。下载完成后启动界面如下

在输入框里输入沟通内容"你是谁"。我们看一下后台输出:

相关推荐
mwq301239 小时前
《前端项目技术文档生成器》Prompt(可复用模板)
前端·llm·visual studio code
大模型教程12 小时前
谷歌AI Agent技术指南深度解读,从概念到生产
langchain·llm·agent
大模型教程12 小时前
一张图拆解 AI Agent 的“五脏六腑”,从感知到进化的完整逻辑!
程序员·llm·agent
智泊AI12 小时前
预测也用上大模型了!时间序列预测是什么?
llm
AI大模型13 小时前
一文了解LLM应用架构:从Prompt到Multi-Agent
程序员·llm·agent
AI大模型13 小时前
LangChain、LangGraph、LangSmith这些AI开发框架有什么区别?一篇文章解释清楚
langchain·llm·agent
掘金詹姆斯13 小时前
从 Dify 学 RAG 工程化:多格式文档解析的统一抽象设计
llm
吴佳浩15 小时前
LangChain / LLM 开发中:invoke() 与 predict() 的区别
python·langchain·llm
大模型教程1 天前
构建Agents框架|LlamaIndex使用实战之RAG
程序员·llm·agent
大模型教程1 天前
LangChain×Qwen3:高性能RAG系统实战项目
程序员·langchain·llm