免费使用DeepSeek开源模型

免费使用

免费使用地址:DeepSeek

里面本地模型为我电脑搭建的模型,现在开放了7b版本,其他模型都对接了硅基流动的 DeepSeek。

如果没有注册硅基流动的可以注册一下。

用我的邀请码注册双方都免费获得 2000w Token的使用权,可以给大家更好的免费使用。

硅基流动注册地址cloud.siliconflow.cn/i/0yB0by8Q

配置要求

我的电脑配置为:

r 复制代码
CPU:i7 12代
GPU:3080
内存:32g
磁盘:1T

以上配置运行情况:

arduino 复制代码
运行ollama run deepseek-r1:7b模型无压力,CPU/GPU使用率在 10% 左右。
运行ollama run deepseek-r1:32b模型输出明显变慢,大概 1 秒 2 ~4个 Token,CPU/GPU使用率在 70% 左右。

ChatGpt给出的部署推荐配置如下:

1. DeepSeek-R1 系列(轻量级部署)

适用于个人开发者、小型研究团队或资源有限的服务器。

模型版本 参数量 显存需求 推荐配置
DeepSeek-R1-1.5B 1.5B 8GB+ RTX 3060 (12GB) / RTX 4060 Ti (16GB)
DeepSeek-R1-7B 7B 24GB+ RTX 3090 / 4090 (24GB) / A6000 (48GB)
DeepSeek-R1-14B 14B 40GB+ RTX 4090 (24GB, 量化后可跑) / A100 (40GB)
DeepSeek-R1-32B 32B 80GB+ A100 80GB / H100 (80GB)
DeepSeek-R1-70B 70B 128GB+ 2×A100 80GB (或更大GPU集群)

建议:

  • 7B及以下的模型可以在高端消费级显卡上运行(如4090),但需要使用 4-bit/8-bit 量化 降低显存占用(可用 bitsandbytes)。
  • 14B以上的模型推荐使用 专业级显卡(A100, H100),或者 多卡并行 方案。

2. DeepSeek-V3 系列(高性能部署)

适用于企业、学术机构或大规模推理应用。

模型版本 参数量 显存需求 推荐配置
DeepSeek-V3 (37B 激活参数) 37B 128GB+ A100 80GB ×2 / H100 80GB
DeepSeek-V3 (671B 总参数) 671B 1.5TB+ H100 80GB ×16+ (或更大GPU集群)

建议:

  • DeepSeek-V3 37B 可以在多张 A100 80GB 上运行(如 2×A100 80GB),建议采用 TPU 或多卡并行(FSDP, ZeRO) 进行优化。
  • DeepSeek-V3 671B 需要 云端或超算集群,适用于 数据中心 或 高端AI研究实验室。

实测 3080的 gpu也可以运行 32b模型,只是输出会慢一些,大概 1 秒 2 ~4个 Token。

安装Ollama

安装DeepSeek首先需要安装一个Ollama,这个软件相当于运行DeepSeek模型的底层,没有这个底层就没办法跑DeepSeek AI模型。

下载地址:

arduino 复制代码
https://ollama.com/

点击下载windows版本:

点击Install

默认在c盘,不能修改,需要5G的磁盘大小。

安装好了以后在开始菜单可以查看有没有Ollama应用

选择大模型

直接命令安装:

DeepSeek提供的模型如下

arduino 复制代码
版本:1.5b,适用于一般文字编辑使用(需要1.1GB空余空间)
ollama run deepseek-r1:1.5b

版本:7b,DeepSeek的第一代推理模型,性能与OpenAl-01相当,包括从基于Llama和Qwen的DeepSeek-R1中提取的六个密集模型(需要
4.7GB空余空间)
ollama run deepseek-r1:7b

版本:8b,(需要4.9GB空余空间)
ollama run deepseek-r1:8b

版本:14b,(需要9GB空余空间)
ollama run deepseek-r1:14b

版本:32b,(需要20GB空余空间)
ollama run deepseek-r1:32b

版本:70b,(需要43GB空余空间)
ollama run deepseek-r1:70b

版本:671b,(需要404GB空余空间)
ollama run deepseek-r1:671b

官网选择模型:

打开地址:

arduino 复制代码
https://ollama.com/search

选择Models

选择deepseek-r1模型,左侧选择模型参数,右侧复制安装命令

安装大模型

打开终端,如果选择复制7b版本,可以复制如下命令:

arduino 复制代码
ollama run deepseek-r1:7b

在终端内执行

等待下载完成

下载结束之后就有一小会儿出现【verifying sha256 digest】,是在检查完整性之类的东西,请耐心等待(模型越大等待时间越长)

成功之后会提示success

对话

安装成功后会可以直接输入问题按回车提问。

当然,终端的展示效果还是不太好,这时候就需要安装一下openWebUi,需要docker环境,如果没有安装docker的安装一个docker。

终端执行以下命令:

kotlin 复制代码
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

等待docker启动成功

安装完成后通过如下地址访问openWebUi:

arduino 复制代码
http://localhost:3000 

第一次进入需要设置一下管理员的账号密码。 随后进入主页,左侧会展示当前我们运行的模型。然后你就可以尽情的问他了。

备注

查看当前本地ollama有的模型命令:

ollama list

运行已有模型命令:

arduino 复制代码
ollama run 模型名称

示例:

arduino 复制代码
>ollama run deepseek-r1:7b

可供下载的模型:

arduino 复制代码
版本:1.5b,适用于一般文字编辑使用(需要1.1GB空余空间)
ollama run deepseek-r1:1.5b

版本:7b,DeepSeek的第一代推理模型,性能与OpenAl-01相当,包括从基于Llama和Qwen的DeepSeek-R1中提取的六个密集模型(需要
4.7GB空余空间)
ollama run deepseek-r1:7b

版本:8b,(需要4.9GB空余空间)
ollama run deepseek-r1:8b

版本:14b,(需要9GB空余空间)
ollama run deepseek-r1:14b

版本:32b,(需要20GB空余空间)
ollama run deepseek-r1:32b

版本:70b,(需要43GB空余空间)
ollama run deepseek-r1:70b

版本:671b,(需要404GB空余空间)
ollama run deepseek-r1:671b
相关推荐
yc_2326 分钟前
语义分割文献阅读——SETR:使用Transformer从序列到序列的角度重新思考语义分割
人工智能·深度学习·transformer
深圳市快瞳科技有限公司29 分钟前
杜绝遛狗不牵绳,AI技术助力智慧城市宠物管理
人工智能·智慧城市·宠物
豆豆酱39 分钟前
强化学习到大模型训练理论概要(一)
人工智能·算法
山海青风40 分钟前
OpenAI 实战进阶教程 - 第十二节 : 多模态任务开发(文本、图像、音频)
图像处理·人工智能·python·ai作画·音视频·语音识别
2501_904447741 小时前
荣耀已接入DeepSeek-R1,荣耀手机系统版本MagicOS8.0及以上用户可用
人工智能·智能手机·virtualenv·scikit-learn·tornado
LaughingZhu1 小时前
PH热榜 | 2025-02-10
人工智能·经验分享·产品运营
修己xj1 小时前
打造智能微信机器人:wxauto 与 DeepSeek 的完美结合
人工智能
不爱原创的Yoga1 小时前
【AI】人工智能与搜索引擎知识了解
人工智能·搜索引擎
shadowcz0072 小时前
Open-Interface:基于大语言模型 LLM 的自动化界面操作系统
运维·人工智能·语言模型·自然语言处理·自动化
小华同学ai2 小时前
ChatGPT-on-WeChat:Star32.4k, DeepSeek加持!这款开源神器秒变AI助手,聊天体验直接起飞!
github·deepseek