Temperature 参数
核心作用
Temperature参数直接影响模型生成文本的多样性:
- **低温(接近0)**:使概率分布更尖锐,模型倾向于选择最可能的词汇,输出更确定、保守,适合需要精确回答的场景(如代码生成、客服回复)。
- **高温(接近1或更高)**:使概率分布更平滑,增加低概率词被选中的机会,生成内容更具创造性但可能偏离逻辑,适用于创意写作、诗歌生成等任务。
设置建议
根据应用场景选择合适的Temperature值:
- 代码生成:建议设置为0.2-0.5,保持输出的确定性。
- 客服回复:建议设置为0.3-0.6,平衡专业性与自然度。
- 创意写作:建议设置为0.7-1.0,激发想象力。
- 诗歌生成:可设置为0.8-1.2,追求意外之喜。
Token 用量计算
token 是模型用来表示自然语言文本的基本单位,也是我们的计费单元,可以直观的理解为"字"或"词";通常 1 个中文词语、1 个英文单词、1 个数字或 1 个符号计为 1 个 token。
一般情况下模型中 token 和字数的换算比例大致如下:
- 1 个英文字符 ≈ 0.3 个 token。
- 1 个中文字符 ≈ 0.6 个 token。
但因为不同模型的分词不同,所以换算比例也存在差异,每一次实际处理 token 数量以模型返回为准,您可以从返回结果的 usage 中查看。
离线计算 Tokens 用量
您可以通过如下压缩包中的代码来运行 tokenizer,以离线计算一段文本的 Token 用量。
1M tokens(即100万个tokens,M:million)能处理的代码量取决于代码的具体内容和所使用的分词器
限速
DeepSeek API 不限制用户并发量,我们会尽力保证您所有请求的服务质量。
但请注意,当我们的服务器承受高流量压力时,您的请求发出后,可能需要等待一段时间才能获取服务器的响应。在这段时间里,您的 HTTP 请求会保持连接,并持续收到如下格式的返回内容:
- 非流式请求:持续返回空行
- 流式请求:持续返回 SSE keep-alive 注释(
: keep-alive)
这些内容不影响 OpenAI SDK 对响应的 JSON body 的解析。如果您在自己解析 HTTP 响应,请注意处理这些空行或注释。
如果 30 分钟后,请求仍未完成,服务器将关闭连接。
错误码
您在调用 DeepSeek API 时,可能会遇到以下错误。这里列出了相关错误的原因及其解决方法。
| 错误码 | 描述 |
|---|---|
| 400 - 格式错误 | 原因 :请求体格式错误 解决方法:请根据错误信息提示修改请求体 |
| 401 - 认证失败 | 原因 :API key 错误,认证失败 解决方法 :请检查您的 API key 是否正确,如没有 API key,请先 创建 API key |
| 402 - 余额不足 | 原因 :账号余额不足 解决方法 :请确认账户余额,并前往 充值 页面进行充值 |
| 422 - 参数错误 | 原因 :请求体参数错误 解决方法:请根据错误信息提示修改相关参数 |
| 429 - 请求速率达到上限 | 原因 :请求速率(TPM 或 RPM)达到上限 解决方法:请合理规划您的请求速率。 |
| 500 - 服务器故障 | 原因 :服务器内部故障 解决方法:请等待后重试。若问题一直存在,请联系我们解决 |
| 503 - 服务器繁忙 | 原因 :服务器负载过高 解决方法:请稍后重试您的请求 |
DeepSeek模型参数
DeepSeek模型参数主要分为两类:模型参数 和API调用参数。
模型参数
- 参数量: DeepSeek-R1系列提供多种规格,如1.5b(15亿参数)、7b(70亿参数)、671b(6710亿参数)等。参数量越大,模型处理复杂任务的能力越强,但对硬件要求也越高。
- 模型类型 :
- V3系列:通用模型,响应速度快,适合模板化任务。
- R1系列:推理模型,擅长复杂逻辑分析和创造性生成。
API调用参数
- model :指定模型,如
deepseek-chat或deepseek-reasoner。 - temperature:控制输出随机性,范围0.0(稳定)到2.0(创新)。
- top_p:控制概率采样,一般与temperature互斥使用。