新手快速安装部署本地DeepSeek

概述

随着DeepSeek的爆火,身为行业从业人员不得不了解和接受,AI做为一种工作中工具的重要性已经变的不言而喻了,互联网的维度已经在悄悄的变化了,分享一篇本地安装部署DeepSeek的教程。

PC客户端

1、下载软件

先介绍一下windows的安装方式,windows和mac的安装方式大同小异,相差不大,打开ollama官网下载,logo是一个可爱的羊驼,下载可选择MacOs、Linux和Windows 3种方式,下载的人很多,有可能有超时的情况,下载时需要耐心等待。

2、选择模型

ollama数据库里更新了很多数据模型,现在最火的属于咱们的DeepSeek-R1,选择电脑配置能运行起来的对应模型,不然会很慢,主要是内存和CPU要高,处于体验尝鲜来说,我选择的是7b的模型,去终端执行命令,下图是官方介绍模型的对比和差异:

下载模型命令,windows对应的就是打开Cmd,执行命令,过程是一样的:

shell 复制代码
ollama run deepseek-r1:7b

安装完成如下图,到这一步模型就可以正常使用了。

3、使用

理论上本地安装完了,就可以使用本地部署的模型进行简单交互,下图中>>>后面是我提问的问题,蓝色的think是DeepSeek-R1自我思考和推理的过程,绿色的框经过推理而得出是答案,是不是很简单,就在本地部署完了

升级与优化

这种终端方式的交互,总让人感觉差点意思,所以经过优化后更好的方式来进行交互,通过Chatbox和Open Web Ui的方式来进行交互。

Chatbox

Chatbox是AI对话框工具,点击官网下载,安装,设置对话框选择 ollama Apideepseek-r1:7b 模型。

这样看起来高大上的AI对话盒子就完成了。

Open Web Ui

第二种方式使用Open Web Ui方式进行部署,首先你要安装Docker,用容器的方式来进行安装和访问,Github地址:github.com/open-webui/...

可以自定义本地的装换端口,安装命令是:

shell 复制代码
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

本地访问http://localhost:3000/就可以访问,现阶段DeepSeek太火爆了,导致可能会有一点慢,models接口偶尔会超时,界面大概就是下面这样的了。

搜索框上的耳机小图标可以听语音,进行转换成文字进行检索。

总结和思考

随着AI的不断发展,不能再对AI视而不见了,它做为一种高维度的工具价值已经是显而易见了,之前用豆包进行搜索文档,大部分的结果都接近准确了,而如今的DeepSeek赋予了模型的推理逻辑,很了不起,AI在不久的将来成为一种新式的检索工具已经成为既定事实。

有的小伙伴产生了担心和担忧,怕因此被替代和取代,工业革命以后新技术层出不穷,人类是基于想象力、权利和秩序的群体,新技术对老技术一定会有很大的冲击,但它取代不了人类的故事性,人类的故事性是人类作为文明生物所独有的。

保持清醒,充足信心,做到最好,就可以了。

相关推荐
Jiyoungxx2 小时前
DAY 39 图像数据与显存
人工智能·深度学习
一车小面包3 小时前
特征工程--机器学习
人工智能·机器学习·特征工程
两棵雪松6 小时前
为什么RAG技术可以缓解大模型知识固话和幻觉问题
人工智能·rag
未来智慧谷7 小时前
华为发布AI推理新技术,降低对HBM内存依赖
人工智能·华为
AKAMAI7 小时前
通过Akamai分布式计算区域实现直播传输
人工智能·分布式·云计算
坐在地上想成仙7 小时前
计算机视觉(4)-相机基础知识恶补
人工智能·数码相机·计算机视觉
sssammmm7 小时前
AI入门学习--如何写好prompt?
人工智能·学习·prompt
阿群今天学习了吗8 小时前
“鱼书”深度学习进阶笔记(3)第四章
人工智能·笔记·python·深度学习·算法
神齐的小马8 小时前
机器学习 [白板推导](十)[马尔可夫链蒙特卡洛法]
人工智能·机器学习·概率论
白-胖-子8 小时前
深度剖析主流AI大模型的编程语言与架构选择:行业实践与技术细节解读
人工智能·架构