Deepseek 的创新及计算速度快和成本低的原因

Deepseek 的创新

  • 开源模型
  • MLA :通过低秩健值联合压缩的注意力机制。显著减小kv缓存的同时提高计算效率。
  • MOE:Deepseek-MoE
    V3使用了61个MoE( Mix of Expert 混合专家)block,虽然总参数量很大,但每次训练或推理时只激活了很少的链路,训练成本大大降低,推理速度显著提高。
    MoE 类比医院的分诊台,在过去所有病人都要找全科医生,效率低。
  • 混合精度框架
    使用了FP8数据格式,但为了简化说明,只展示了线性算子(Linear Operator)的部分
    在不同区块里使用不同的精度来存储数据。我们知道精度高,占用内存多,运算复杂度大。Deepseek 在一些不需要高精度的模块,使用很低的精度FP8存储数据。
  • 名称规则:Qwen3-Coder-480B-A35B-Instruct
    • 480B 完整尺寸的模型参数大小
    • A35B ,激活的参数数量是35B

Q : 为什么Deepseek 计算速度快,成本低?

  • 架构设计方面
    • DeepSeek MoE 架构:在推理时仅激活部分专家,避免了激活所有参数带来的计算资源浪费
    • MLA 架构:MLA通过降秩kv 矩阵,减少了显存消耗。
  • 训练策略方面
    • 多token 预测(MTP)目标:在训练过程中采用了多token预测目标,即在每个位置上预测多个未来token,增加了训练信号的密度,提高了数据效率。
    • 混合精度训练框架:在训练中,对于占据大量计算量的通用矩阵乘法(GEMM)操作,采用FP8精度执行。同时,通过细粒度量化策略和高精度累积过程,解决了低精度训练中出现的量化误差问题。

Q : 为什么Deepseek-R1的推理能力强大?

  • 强化学习驱动:DeepSeek-R1 通过大规模强化学习技术显著提升了推理能力。在数学、代码和自然语言
  • 长链推理(CoT)技术:DeepSeek-R1采用长链推理技术,其思维链长度可达数万字,能够逐帧分解复杂问题,通过多步骤的逻辑推理来解决问题
相关推荐
财经资讯数据_灵砚智能1 小时前
基于全球经济类多源新闻的NLP情感分析与数据可视化(日间)2026年5月15日
人工智能·python·信息可视化·自然语言处理·ai编程
GHL2842710901 小时前
MinerU学习
学习·ai
牧子川1 小时前
012-Chain-of-Thought-Prompting
人工智能·大模型·cot·zero-shot cot·few-shot cot
七夜zippoe1 小时前
OpenClaw Browser 快照:页面分析与操作
ai·快照·playwright·browser·openclaw
wujian83111 小时前
千问 文心 元宝 Kimi导出pdf方法
人工智能·ai·pdf·豆包·deepseek
青衫码上行1 小时前
如何接入AI大模型
java·人工智能·ai·langchain·ai编程
victory04312 小时前
DeepSeek-R1:通过强化学习激励大语言模型的推理能力 技术报告中文翻译
人工智能·语言模型·自然语言处理
james的分享2 小时前
湖仓一体之Apache Iceberg
ai·ai数据中台
前端小超人rui3 小时前
dashscope 介绍及使用(调用阿里云 AI 大模型的核心工具)
ai·语言模型·大模型调用