概述
随着DeepSeek的爆火,身为行业从业人员不得不了解和接受,AI做为一种工作中工具的重要性已经变的不言而喻了,互联网的维度已经在悄悄的变化了,分享一篇本地安装部署DeepSeek的教程。
PC客户端
1、下载软件
先介绍一下windows的安装方式,windows和mac的安装方式大同小异,相差不大,打开ollama官网下载,logo是一个可爱的羊驼,下载可选择MacOs、Linux和Windows 3种方式,下载的人很多,有可能有超时的情况,下载时需要耐心等待。
2、选择模型
ollama数据库里更新了很多数据模型,现在最火的属于咱们的DeepSeek-R1,选择电脑配置能运行起来的对应模型,不然会很慢,主要是内存和CPU要高,处于体验尝鲜来说,我选择的是7b的模型,去终端执行命令,下图是官方介绍模型的对比和差异:
下载模型命令,windows对应的就是打开Cmd,执行命令,过程是一样的:
shell
ollama run deepseek-r1:7b
安装完成如下图,到这一步模型就可以正常使用了。
3、使用
理论上本地安装完了,就可以使用本地部署的模型进行简单交互,下图中>>>
后面是我提问的问题,蓝色的think是DeepSeek-R1自我思考和推理的过程,绿色的框经过推理而得出是答案,是不是很简单,就在本地部署完了
升级与优化
这种终端方式的交互,总让人感觉差点意思,所以经过优化后更好的方式来进行交互,通过Chatbox和Open Web Ui的方式来进行交互。
Chatbox
Chatbox是AI对话框工具,点击官网下载,安装,设置对话框选择 ollama Api
和 deepseek-r1:7b
模型。
这样看起来高大上的AI对话盒子就完成了。
Open Web Ui
第二种方式使用Open Web Ui方式进行部署,首先你要安装Docker,用容器的方式来进行安装和访问,Github地址:github.com/open-webui/...
可以自定义本地的装换端口,安装命令是:
shell
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
本地访问http://localhost:3000/
就可以访问,现阶段DeepSeek太火爆了,导致可能会有一点慢,models接口偶尔会超时,界面大概就是下面这样的了。
搜索框上的耳机小图标可以听语音,进行转换成文字进行检索。
总结和思考
随着AI的不断发展,不能再对AI视而不见了,它做为一种高维度的工具价值已经是显而易见了,之前用豆包进行搜索文档,大部分的结果都接近准确了,而如今的DeepSeek赋予了模型的推理逻辑,很了不起,AI在不久的将来成为一种新式的检索工具已经成为既定事实。
有的小伙伴产生了担心和担忧,怕因此被替代和取代,工业革命以后新技术层出不穷,人类是基于想象力、权利和秩序的群体,新技术对老技术一定会有很大的冲击,但它取代不了人类的故事性,人类的故事性是人类作为文明生物所独有的。
保持清醒,充足信心,做到最好,就可以了。