DeepSeek与llama本地部署(含WebUI)

DeepSeek从2025年1月起开始火爆,成为全球最炙手可热的大模型,各大媒体争相报道。我们可以和文心一言一样去官网进行DeepSeek的使用,那如果有读者希望将大模型部署在本地应该怎么做呢?本篇文章将会教你如何在本地傻瓜式的部署我们的deepseek,即便你是文科生也可以做到,不会涉及代码编程,只需要一些命令。


我笔记本:2019款拯救者,windows 10;内存8G,CPU:intel 9th i5;GPU:NVIDIA 1650 4G,256G固态+1T机械硬盘。其实只要你电脑系统是在windows 10及以上,且具有8G内存和30GB可用空间就基本可以部署最小版本的DeepSeek R1大模型和LLama3.2大模型

相关的资源可以从我的百度网盘下载,当然也可以从各官网去下载,只不过会慢一些。

**链接:**https://pan.baidu.com/s/15H48zFG394P23b7wM2nTXA

**提取码:**iipt


本地部署DeepSeek和llama

本节将详细介绍如果通过Ollama和Open WebUI在本地计算机环境中部署DeepSeek R1和LLama 3.2大模型。

1.安装Ollama

Ollama是一个开源的本地化大模型部署工具,旨在简化大型语言模型(LLM)的安装、运行和管理。它支持多种模型架构,并提供与OpenAI兼容的API接口,适合开发者和企业快速搭建私有化AI服务。

Ollama官方网址:https://ollama.com/

点进去以后界面如下,然后点击Download

我们这里选择Windows版本,所以选择Windows,然后点击Download for Windows,这里有时候会让你登录注册后才可以下载,有些同学从这里下载会很慢,因此还是推荐从我的百度网盘下载。

下载完成以后,双击安装包文件"OllamaSetup.exe"完成安装。

注意:这里默认安装为C盘

1.1更改大模型下载位置

这一步并不是必须的,如果你C盘位置足够可以不用管。如果你希望更改其他位置可以看这一部分。

安装完毕后,如何检验Ollama是否安装完毕呢?方法很简单,按键盘上的windows键+R键,然后输入cmd并确定,如下:

紧接着在跳出的窗口输入以下命令: ollama --version 当我们可以看到打印的ollama版本就说明安装成功了。

后续下载的各类大模型也均存储在C盘,因此如果你希望把大模型放在其他盘,例如我这里是F盘,操作如下:

我是在F盘新建了一个ollama的文件夹。如下:

下载的各类大模型一般默认位置为:C:/User/你的用户名/.ollama/models/

然后将上述models整个文件夹剪切 到你自己新建的文件中,我这里是F:/ollama/models,如下:

到了这还没有完,我们还需要修改环境变量,便于让后续的Ollama自动找到我们的大模型。

右键"此电脑"

然后点击属性,点击高级系统设置

在系统属性窗口,点击高级-->环境变量。

在跳出来的环境变量窗口用户变量中点击新建。

输入以下内容:

变量值为你存储大模型的位置,根据自己的实际位置进行修改。

2.下载DeepSeek R1大模型

我这里仅以DeepSeek R1大模型为例,其他大模型例如LLama也是一样的操作。

模型下载地址:https://ollama.com/library/,该地址进去后有各类大模型。

但这里给一个更方便的下载方法,让Ollama为我们自己下载

因为我这里的显存比较小,因此我选择下载的是deepseel-R1,llama3.2也可以带起来。

只需要在cmd中输入ollama run deepseek-r1:1.5b命令即可下载或运行。(如果之前没有下载会自动下载,如果已经下载过了,输入该命令后会自动运行大模型),这里的下载速度取决你的网速的和模型大小。

安装成果后你就可以和deepseek对话了,如下,关闭窗口就退出模型了:

如果你要查看你下载了哪些大模型,命令如下:

ollama list


3.安装Open-WebUI

上述的方法使用大模型是不是感觉太Low了,不像GPT或者文心一言有一个网页的交互界面,因此也有前人为我们造好了轮子,我们直接拿来用就行,这个框架框架就是Open-WebUI。

但是安装此框架之前需要你电脑上安装好python3.12,注意要3.12版本!太低不兼容,也不建太新的,咱们就按官方推荐的来。

然后在cmd中输入以下命令:

复制代码
pip install open-webui -i https://pypi.tuna.tsinghua.edu.cn/simple

注意:这里的安装的时间可能会比较长,如果长时间不动或者卡住,可尝试按一下回车键。

安装完成后,同样在cmd中输入open-webui serve命令开启我们的UI界面,看到下面界面并不意味着已经完全启动成功,咱们还需要继续等待

直到出现以下类似的信息后,才说明启动成功。

接下来就是见证奇迹的时刻!!!打开你的浏览器,输入网址:

http:/localhost:8080

注意:第一次登录的时候,需要你自己先注册到本地一个管理员账户

如果你想切换大模型,可以点击下面的选项。

接下来你就可以实现对话啦~~~

注意:默认大模型是离线的,也就是不接入互联网。如果你希望联网,那么你可以进行如下设置:

点击左下角的账户,然后点击设置,找到如下设置,也可以用其他的搜索引擎,但需要API。


但是尝试了一下deepseek r1,感觉效果很一般,更大参数的模型效果会好一些。

相关推荐
晓数1 小时前
“平价”微智码初尝试
人工智能·jetbrains
新加坡内哥谈技术1 小时前
MCP:人工智能时代的HTTP?探索AI通信新标准
人工智能·自然语言处理·chatgpt
0x2113 小时前
[论文阅读]REPLUG: Retrieval-Augmented Black-Box Language Models
论文阅读·人工智能·语言模型
JOYCE_Leo164 小时前
一文详解卷积神经网络中的卷积层和池化层原理 !!
人工智能·深度学习·cnn·卷积神经网络
~央千澈~5 小时前
对鸿蒙 Next 系统“成熟论”的深度剖析-优雅草卓伊凡
人工智能
Donvink5 小时前
【视频生成模型】通义万相Wan2.1模型本地部署和LoRA微调
人工智能·深度学习·aigc·音视频
訾博ZiBo5 小时前
AI日报 - 2025年04月29日
人工智能
爱喝奶茶的企鹅5 小时前
Ethan独立开发产品日报 | 2025-04-27
人工智能·程序员·开源
极小狐5 小时前
如何对极狐GitLab 议题进行过滤和排序?
人工智能·git·机器学习·gitlab