本地部署【LLM-deepseek】大模型 ollama+deepseek/conda(python)+openwebui/docker+openwebui

通过ollama本地部署deepseek

总共两步

1.模型部署

2.[web页面]

参考官网

ollama:模型部署

https://ollama.com/

open-webui:web页面

https://github.com/open-webui/open-webui

设备参考 Mac M 芯片 windows未知

shell 复制代码
蒸馏模型版本:deepseek-r1:14b 运行情况
	macminim2 24+256 本地部署后内存舒缓,不影响电脑其他软件使用
	macminim4 16+256 本地部署后内存紧张,影响电脑其他软件使用
	内存占用情况:
	11G -> 21.72G 模型思考时,大概会占用11到12G的内存 

1.ollama:模型部署

shell 复制代码
	# 下载 ollama
	https://ollama.com/
	# 运行 deepseek 选择自己设备适合的版本[:14b],官网看命令 
	ollama run deepseek-r1:14b # 当前终端运行,可在终端交互
	ollama run deepseek-r1:14b & disown   # 放到后台去跑,终端页面关掉也不会关闭此模型

2.open-webui:web页面 推荐python的终端部署方式

2.1 docker部署web页面

shell 复制代码
	#
	docker pull ghcr.io/open-webui/open-webui:main
	# 创建本地目录,避免重启后数据丢失
	mkdir /Users/admin/program/docker/instance/open-webui/data
	cd /Users/admin/program/docker/instance/open-webui
	# 启动容器
	docker run -d -p 3000:8080 -v $PWD/data:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main

2.2 python部署web页面 需要在有python环境下执行 推荐

shell 复制代码
	pip install open-webui
	open-webui serve
	open-webui serve & disown 
	# This will start the Open WebUI server, which you can access at http://localhost:8080

2.3 [忽略] conda创建python环境

shell 复制代码
	conda create -n openwebui python=3.12 -y 
	# python=3.12:指定 Python 版本 -y:自动确认安装
	conda init
	conda activate openwebui

	pip install open-webui
	open-webui serve							# 这个不能关闭终端
	open-webui serve & disown  					# 使用这个启动成功后,可以关闭终端了
	open-webui serve > /dev/null 2>&1 & disown 	# 使用这个启动成功后,可以关闭终端了
	# This will start the Open WebUI server, which you can access at http://localhost:8080

	# 放在后台的任务如何查看呢
	jobs							# 使用 jobs 命令查看当前作业状态。
	ps aux | grep "your-command"	# 或者使用 ps aux | grep "your-command" 检查进程是否存在。
	
	
相关推荐
用户2519162427112 小时前
Python之语言特点
python
刘立军2 小时前
使用pyHugeGraph查询HugeGraph图数据
python·graphql
数据智能老司机5 小时前
精通 Python 设计模式——创建型设计模式
python·设计模式·架构
数据智能老司机7 小时前
精通 Python 设计模式——SOLID 原则
python·设计模式·架构
c8i8 小时前
django中的FBV 和 CBV
python·django
c8i8 小时前
python中的闭包和装饰器
python
这里有鱼汤11 小时前
小白必看:QMT里的miniQMT入门教程
后端·python
TF男孩21 小时前
ARQ:一款低成本的消息队列,实现每秒万级吞吐
后端·python·消息队列
该用户已不存在1 天前
Mojo vs Python vs Rust: 2025年搞AI,该学哪个?
后端·python·rust
站大爷IP1 天前
Java调用Python的5种实用方案:从简单到进阶的全场景解析
python