千问Qwen7B chat:本地部署及网页端使用

基于前面的安装经验,千问大模型的本地部署并不算难,主要时间用在大模型文件的下载上。同时系统运行对硬件也有较高的要求,本机的硬件配置为N卡3060,显存12G。

  1. 使用conda创建虚拟环境,主要版本如下:

Python 3.9.18

CUDA 12.1

pytorch 2.2.2

  1. 克隆代码到本地

git clone https://github.com/QwenLM/Qwen.git

  1. 进入Qwen目录,执行安装命令

安装依赖

pip install -r requirements.txt

安装 web_demo 依赖

pip install -r requirements_web_demo.txt

  1. 运行命令

python web_demo.py --server-port 8087 --server-name "0.0.0.0"

会下载很多模型文件,需要一点时间。下载完成后启动界面如下

在输入框里输入沟通内容"你是谁"。我们看一下后台输出:

相关推荐
Pkmer4 分钟前
LLM应用的“外挂大脑”:Embedding、向量数据库与RAG
llm·agent
chaors16 分钟前
LangGraph 入门到精通0x00:HelloLangGraph
langchain·llm·agent
假如梵高是飞行员1 小时前
RAG技术近三年工程实践进化综述
llm·agent
nix.gnehc1 小时前
实战部署|Ollama\+Qwen2\.5:3b\+Open WebUI 本地AI助手搭建全记录(附避坑指南)
人工智能·大模型·llm·ollama
周末程序猿13 小时前
详解 karpathy 的 microgpt:实现一个浏览器运行的 gpt
人工智能·llm
是小蟹呀^14 小时前
【总结】提示词工程
python·llm·prompt·agent
Tadas-Gao17 小时前
从“驯马”到“驭队”:Harness Engineering 如何重构 AI 产品化的底层逻辑
人工智能·语言模型·架构·大模型·llm·harness
缘友一世1 天前
tmux 共享终端:AI 模型执行命令的实时审计方案
linux·llm·tmux·agent终端交互审计
智泊AI1 天前
AI大模型中常见的20个基础概念,建议收藏!
llm