DeepSeek 搭建和 Android
文章目录
- [DeepSeek 搭建和 Android](#DeepSeek 搭建和 Android)
-
- 一、前言
- [二、DeepSeek 本地环境ollama搭建](#二、DeepSeek 本地环境ollama搭建)
-
- 1、软件下载网址:
- 2、Ollama的安装
- 3、配置算法模型和使用
-
- [qwen2 模型使用,](#qwen2 模型使用,)
- [三、Android Studio 和 DeepSeek](#三、Android Studio 和 DeepSeek)
- 四、其他
-
- [1、Deepseek 使用小结](#1、Deepseek 使用小结)
-
- [(1) 网页版本可以简单使用进行对话](#(1) 网页版本可以简单使用进行对话)
- [(2) 手机下载的版本也可以简单使用进行对话](#(2) 手机下载的版本也可以简单使用进行对话)
- [(3) window电脑下载](#(3) window电脑下载)
- 2、2024年几款免费的AI对话工具介绍
- [3、Android Studio的AI工具插件使用介绍](#3、Android Studio的AI工具插件使用介绍)
- [4、几个超级大厂集成 Deepseek 网址 集合](#4、几个超级大厂集成 Deepseek 网址 集合)
一、前言
过年前看到DeepSeek非常火,很多小视频也说DeepSeek是如何如何强大。
我也想搭建DeepSeek玩玩!
简单搜了一下本地搭建DeepSeek的环境要求,发现要求居然那么高:
完全符合它的要求的电脑估计要两三万以上。
看了下我的电脑肯定达不到这个要求,估计大部分开发人员的电脑都没那么高的配置吧。
难道一般人搞不了?
其实不搭建DeepSeek环境也能玩 DeepSeek,目前是有免费的网页版和App软件。
我试了一下网页版本和App软件,都是比较简单功能的对话,目前还没有抖音旗下的豆包好用。
DeepSeek也指由DeepSeek公司开发的、类似于ChatGPT的智能助手。
目前,该智能助手在网页端和移动端均已上线。
网页版:打开浏览器,在地址栏输入https://chat.deepseek.com/ ,就能和它愉快聊天啦。
App版:在手机的应用商店里搜 "deepseek",下载安装就行。
注意,下载的时候要认准蓝色鲸鱼标志,别下错了。
如果只是简单对话,看起来对比国内的其他AI工具就没任何优势了。
年前我看了一个视频也是说搭建DeepSeek-R1只要三步:
1、下载Ollama 软件(装AI的盒子),有Window、Linux、Apple版本
2、用Ollama选择要安装的模型,DeepSeek-R1 是目前最新的模型
3、安装模型
并不是一下子就可以搞定的,正常需要两个小时左右,就可以下载安装配置完成;
第一步下载的Ollama软件都差不多1个G了;
第二步需要根据自己的电脑配置选择模型信息;5G
第三步是在cmd窗口根据配置信息输入命令才能配置模型。
最后配置完模型就可以在cmd窗口执行run XXX命令,回车可以问答。
本文也一步一步尝试安装DeepSeek模型看看能不能成功。
二、DeepSeek 本地环境ollama搭建
ollama官网:https://ollama.com/
官网里面点击下载,好像需要梯子,不清楚为啥是跳转到github里面下载!
查询后发现:Ollama Labs 是一家加拿大的公司。
恍然大悟,源码ollama 并不是 DeepSeek 开发的软件!
ollama 你可以理解成一个小的图形虚拟机。
1、软件下载网址:
使用gitcode 国内网能正常下载
https://gitcode.com/gh_mirrors/oll/ollama?utm_source=highlight_word_gitcode&word=ollama
根据自己的电脑系统类型选择安装Windows、Linux、masOS 的软件应用。
2、Ollama的安装
就是普通.exe那样一步步安装就行。
简单说明:
https://blog.csdn.net/dwjf321/article/details/142280542
下面这个步骤比较详细:
https://blog.csdn.net/cliffordl/article/details/145457454
最后打开电脑属性窗口,环境变量,新建并配置一下:
OLLAMA_HOST=0.0.0.0
OLLAMA_MODELS=D:\model\ollama
不知道有没有用,但是网上的教程都是说要配置一下的。
3、配置算法模型和使用
qwen2 模型使用,
ollama pull qwen2:7b //拉模型,要等蛮久,好像是4G左右
ollama --list//查询到 qwen2:7b 表示模型下载完成
ollama run qwen2:7b //运行模型,等十几秒,就可以直接输入文字回车进行提问
/? //提问,查询命令
/bye //退出ollama 使用
除了磁盘大小要求,算法模型对内存和显卡也是有很大要求的
1.5B 8GB+
7B 16GB+
8B 16GB+
14B 32GB+
32B 64GB+
70B 128GB+
671B 512GB+
所以并不是模型选择越高级越好,
像我7000左右的联想电脑,i7+16G内存+4G独显+500G内存,
跑qwen2模型问答后,有时候cpu 50+、内存都是90+,估计很难做其他操作了。

断开网络其实也可以使用:
所上面就是关闭Wifi连接,使用本地模型进行的问答;
所以下载运行本地模型,好处就是免费和不用联网,但是就是要电脑配置好一点才不卡。
如果要网页UI效果,安装一个Open WebUI 可以优化问答的显示。
Open WebUI 的操作:
https://blog.csdn.net/Annia_/article/details/145494890
要安装Python,安装Node.js和npm,还要配置,有点麻烦,有兴趣的自己搞下。
大数据的训练模型是在本地模型进行的,所以不同环境下同样的问答但是结果可能有差异是正常的。
那就搞完了吧!
刚开始我也以为是完了的,但是发现qwen2 并不是 Deepseek的模型,
而是阿里的通义千问模型,估计是阿里的模型比较早,
而我搜索ollama搭建,大部分都是下载的qwen2的模型文章。
难道要重新搞一遍?
其实不用,很简单,只有用ollama命令重新下载配置deepseek模型就行。
ollama pull deepseek-r1:7b
最开始那个下载的是qwen2模型,后面花了半个小时重新下载了deepseek-r1模型,也能使用。
不管是啥模型,其实配置和运行都是差不多的。
目前来看,大众认为DeepSeek是最聪明的模型。
三、Android Studio 和 DeepSeek
作为一个Android开发者,看看DeepSeek能不能加入到Android Studio的实际开发。
网上说Android Studio 的 CodeGPT 是集成了 DeepSeek模型的。
我在Studio 插件上下载安装CodeGPT 后,发现无法使用!
点击配置,无法设置信息:
估计是还没完善,其实Android Studio没啥必要用DeepSeek的插件,
目前国内百度和阿里的插件在Studio是免费能用的,正常问答和代码解释等功能是可以用的。
网上查看使用这个插件还有申请秘钥,不是完全免费的。
更不想继续研究了。
因为作用其实不大,其他插件也安装过了,
ai插件问答,有些实际代码并不适用,
有些提供的代码运行会报错,最后还得人脑过一次。
四、其他
1、Deepseek 使用小结
(1) 网页版本可以简单使用进行对话
(2) 手机下载的版本也可以简单使用进行对话
(3) window电脑下载
其他类型操作系统也是类似步骤操作。
1、下载安装 ollama.exe 软件
2、cmd窗口下载模型,大概16G内存
ollama pull deepseek-r1:7b //deepSeek-r1模型
3、使用
ollama list //查看模型,如果有才能run
ollama run deepseek-r1:7b
本地搭建后使用的好处就是,可以不联网,
免费进行翻译推理创造问答,但是无法同步获取网上新的数据内容。
2、2024年几款免费的AI对话工具介绍
https://blog.csdn.net/wenzhi20102321/article/details/144143754
3、Android Studio的AI工具插件使用介绍
https://blog.csdn.net/wenzhi20102321/article/details/144143936
4、几个超级大厂集成 Deepseek 网址 集合
腾讯元宝:
https://yuanbao.tencent.com/chat
阿里:
https://www.aliyun.com/product/tongyi
百度:
https://chat.baidu.com/search
华为:
https://siliconflow.cn/zh-cn/
360 纳米AI:
https://metaso.cn/
各大厂身价都上千亿,都有自己的大模型,为啥都集成DeepSeek 模型,
估计是为了维持热度,并且兼容客户需求吧,毕竟DeepSeek目前是公认最聪明的模型。
如果使用在线DeepSeek 使用卡顿,就可以用360的超级纳米AI服务器,基本不会卡;
专业人士说是DeepSeek一直被美国黑客工具,但是360目前防护很好,不会受到攻击;
也有可能有其他原因,比如本身服务器用户超多受限等。