随着大语言模型(LLM)技术的快速发展,企业和开发者对具备更强理解与生成能力的模型需求也愈加旺盛。DeepSeek-R1 作为 DeepSeek 公司推出的一款强大开源模型,不仅在多项评测中表现优异,更具备出色的推理能力和长文本处理能力。DeepSeek-R1 模型登陆 Amazon Bedrock,以"即开即用"的无服务器(Serverless)方式,为企业提供更灵活、更安全、更经济的模型部署解决方案。
本文将带你从零开始,逐步了解并实践如何在 Amazon Bedrock 中调用 DeepSeek-R1 模型,完整体验这一强大模型在实际业务场景中的应用潜力。
一、为什么选择 Amazon Bedrock?
在介绍使用流程之前,我们有必要先理解:Amazon Bedrock 提供了哪些关键价值?
1.1 无需基础设施配置,专注业务逻辑
传统部署开源大模型需准备大量算力、安装依赖环境、管理权限和监控等繁杂任务,而 Bedrock 通过"即开即用"的 Serverless 架构,大大简化了这些步骤。
1.2 多模型一站式访问
Bedrock 支持多家领先 AI 公司(如 Anthropic、AI21 Labs、Meta、Mistral、Stability AI、Cohere、Amazon Titan 和 DeepSeek)的基础模型,开发者无需切换平台即可统一管理和调用。
1.3 安全合规,企业级支持
通过 IAM 权限、VPC 接入、CloudWatch 监控和 CloudTrail 审计等,Amazon Bedrock 符合企业级安全要求,适合部署在对数据隐私和安全要求较高的行业中。
二、认识 DeepSeek-R1 模型
DeepSeek-R1 是 DeepSeek 推出的开源大语言模型,具备如下特点:
- 基于 1T tokens 规模的数据训练,覆盖多语言、多任务;
- 具备较强的 推理能力 和 代码理解能力;
- 开源协议友好(Apache 2.0),便于商用与二次开发;
- 具备长上下文能力,支持数万 tokens 输入。
该模型在 MMLU、GSM8K、HumanEval 等基准测试中均表现优秀,成为国内外 AI 圈关注的焦点。
目前,Amazon Bedrock 已集成 DeepSeek-R1 模型(v1.3),支持 7B 参数版本,允许开发者以极低门槛快速试用该模型。
三、DeepSeek-R1 实践全流程(基于 Amazon Bedrock)
以下是从账号准备、模型调用到业务集成的完整实践流程。
3.1 前置准备:开通 Amazon Bedrock 和配置 IAM
步骤 1:注册或登录 Amazon 账号
在开始部署之前,首先进入亚马逊云科技,注册并登录账号
步骤 2:开通 Amazon Bedrock 服务
然后,进入控制台搜索 "Amazon Bedrock",点击进入Amazon Bedrock:

进入Bedrock控制台后,在这里我们可以看到Amazon Bedrock支持多个基础模型(foundation model),其中包括Amazon Titan,Claude,Jurassic,Command,Stable Diffusion 以及 Llama2。
登录后,还需要对Amazon Bedrock中的模型进行授权,对于某些模型,可能首先需要提交用例详细信息,然后才能请求访问。这里点击模型访问权限------管理模型访问权限:

勾选打开deepseek:

接下来在 Amazon Bedrock 中测试 DeepSeek-R1 模型了,请在左侧菜单窗格的 Playgrounds 下选择 聊天/文本。然后在左上角选择选择模型,在类别中选择 DeepSeek,在模型中选择 DeepSeek-R1。选择应用。

步骤 3:配置 IAM 权限策略
创建一个 IAM 角色或用户,并赋予如下权限策略:
json
{"Version": "2012-10-17","Statement": [{"Effect": "Allow","Action": ["bedrock:*","bedrock-runtime:*"],"Resource": "*"}]}
步骤 4:设置访问密钥(Access Key)
创建程序访问所需的 Access Key 和 Secret Key,或配置基于 IAM 角色的临时凭证(推荐用于 EC2、Lambda)。
3.2 使用 Amazon SDK 调用 DeepSeek-R1 模型
Amazon Bedrock 支持多种访问方式,包括:
- 控制台测试页面
- Bedrock Runtime API(REST)
- Amazon SDK(推荐)
以下以 Python SDK(boto3)为例,演示如何调用 DeepSeek-R1 模型。
步骤 1:安装依赖
pip install boto3
步骤 2:创建调用脚本
ini
import boto3
import json
# 创建 Bedrock 客户端
bedrock_runtime = boto3.client('bedrock-runtime', region_name='us-west-2') # 构造请求体
body = {"prompt": "用一句话解释量子纠缠。","max_tokens": 512,"temperature": 0.7,"top_p": 0.9} # 指定 DeepSeek 模型
model_id = "deepseek.chat-v1"
response = bedrock_runtime.invoke_model(
modelId=model_id,
body=json.dumps(body),
contentType="application/json",
accept="application/json")
result = json.loads(response['body'].read())print("模型回复:", result["output"])
输出示例:
模型回复:量子纠缠是指两个或多个粒子即使相距遥远,其状态也能瞬时相互影响的现象。
3.3 控制台测试:零代码试用
如果你只是想快速体验模型效果,也可以在控制台中进行交互式试用:
- 打开 Amazon Bedrock 控制台
- 选择 "Playground"
- 在模型选择中选择
deepseek.chat-v1
- 输入 prompt,点击发送
你会看到 DeepSeek-R1 返回的自然语言回答,快速验证效果。
现在注册亚马逊云科技,立即享受750小时的Amazon EC2、5GB的Amazon S3存储和750小时的Amazon RDS数据库免费使用权益,助力您的业务快速上云。

3.4 应用场景
在掌握了调用方式后,我们可以进一步探索 DeepSeek-R1 在多个业务场景中的应用价值。
场景一:企业知识问答系统
你可以将 DeepSeek-R1 嵌入企业内部知识问答机器人中,结合向量检索系统(如 Amazon Kendra、OpenSearch)构建 RAG(检索增强生成)系统,实现对公司文档、FAQ、SOP 等内容的智能问答。
yaml
用户提问:我们公司 2024 年的假期安排是怎样的?
DeepSeek-R1:请稍等,我正在为您查找公司人事政策文档......(结合 RAG 检索输出)
场景二:智能代码辅助
利用 DeepSeek-R1 在 HumanEval 中的出色成绩,你可以构建类似 Copilot 的代码助手,自动补全函数、生成注释、解释代码逻辑等。
ini
def quick_sort(arr):if len(arr) <= 1:return arr
pivot = arr[0]
left = [x for x in arr[1:] if x < pivot]
right = [x for x in arr[1:] if x >= pivot]return quick_sort(left) + [pivot] + quick_sort(right)
场景三:多语言内容生成
得益于大规模多语言训练,DeepSeek-R1 在中文、英文、日语等语言上均具备自然生成能力,可用于多语言客服、内容生成等场景。
makefile
Prompt:
请将以下英文邮件翻译成正式中文:
Hi, we have confirmed your request and will process it within 3 working days.
Response:
您好,我们已确认您的请求,并将在三个工作日内处理完毕。