5分钟带你获取deepseek api并搭建简易问答应用

目录

1、获取api

2、获取base_url和chat_model

3、配置模型参数

方法一:终端中临时将加入

方法二:创建.env文件

[4、 配置client](#4、 配置client)

5、利用deepseek大模型实现简易问答


deepseek-v3是截止博文撰写之日,无论是国内还是国际上发布的大模型中表现十分亮眼的模型,这里以deepseek为例,讲解如何获取api_key、base_url、chat_model。

1、获取api

首先打开deepseek接口的官网:DeepSeek

点右上角"开放平台"

新号一般会送10元的余额,左上方会显示你当前余额按照当前的价格所拥有的tokens数量(tokens可以简单的理解为你输入给大模型的提示词+大模型输出的内容之和所占用的字符数,这个后续博客中会细讲分词原理),这个tokens数量可能会随着模型价格变化而变化,不过deepseek的api价格比较便宜,如图上所展示的送给新人的500万tokens数也够个人使用很久了。

接着,点击左侧的API keys, 然后点击创建API key

一般需要给API key命名用来区分不同的API,比如下图命名为"test"

​ 这里需要注意的是,系统生成的API key只有第一次创建时能看到并且复制,此后都无法再次看到,只能看到名字,所以需要大家第一次就将其复制下来,保存到你的文件中,当然如果忘记了也影响不大,重新创建一个就行。

2、获取base_url和chat_model

同样以deepseek为例,点击2.1.1页面左下角的接口文档, 或者直接进入DeepSeek API文档

进入文档后,在"快速开始"的"首次调用API"中,可以找到base_url和chat_model,如下:

base_url = https://api.deepseek.com/v1

chat_model='deepseek-chat'

其他平台与deepseek的获取方式差不多

3、配置模型参数

base_url和chat_model直接定义即可,但api key是关乎着模型是否能够使用的,所以尽量不要把其暴露在模型定理里面,而是把他添加到环境变量里,这里介绍两种方法添加环境变量。

方法一:终端中临时将加入

在终端中临时将token加入变量,此时该环境变量只在当前终端内有效 !!! 所以该种方法需要我们在该终端中运行我们的py脚本。

java 复制代码
export api_key="填入你的api token"

若是想永久加入环境变量,可以对 ~/.bashrc 文件中添加以下内容并保存。

java 复制代码
export api_key="填入你的api token"

此时在代码中获取api 只需要在Python脚本中添加以下代码即可

python 复制代码
import os
api_key = os.getenv('api_key')
base_url = "https://api.deepseek.com/v1"
chat_model = "deepseek-chat"

方法二:创建.env文件

终端输入命令临时创建也比较麻烦,而且只在当前终端内有效,而创建.env文件存储api_key则不存在这种问题。

首先创建.env文件,然后输入以下内容,记得替换成你的token

python 复制代码
api_key="your api_key"

同一路径下创建脚本文件,然后在代码中添加以下内容

python 复制代码
import os
from dotenv import load_dotenv


# 加载.env文件中的环境变量
load_dotenv()

# 获取特定的环境变量
api_key = os.getenv('api_key')

base_url = "https://api.deepseek.com/v1"
chat_model = "deepseek-chat"

4、 配置client

有了前面的三个参数,我们就可以构造一个client,构造client只需要两个东西:api_key和base_url。

python 复制代码
from openai import OpenAI
client = OpenAI(
    api_key = api_key,
    base_url = base_url
)

5、利用deepseek大模型实现简易问答

我们这里使用第二种方式定义api_key,创建.env文件存储api_key后,在.env同一目录下创建脚本文件,填入以下代码:

python 复制代码
import os
from dotenv import load_dotenv
from openai import OpenAI
# 加载环境变量
load_dotenv()
# 从环境变量中读取api_key
api_key = os.getenv('api_key')
base_url = "https://api.deepseek.com/v1"
chat_model = "deepseek-chat"


client = OpenAI(
    api_key = api_key,
    base_url = base_url
)

有了这个client,我们就可以去实现各种能力了。

举个简单例子测试一下模型是否配置成功,配置好api的token后,输入以下代码

python 复制代码
import os
from dotenv import load_dotenv
from openai import OpenAI

# 加载环境变量
load_dotenv()

# 从环境变量中读取api_key
api_key = os.getenv('api_key')
base_url = "https://api.deepseek.com/v1"
chat_model = "deepseek-chat"

client = OpenAI(
    api_key=api_key,
    base_url=base_url
)

try:
    # 发送一个简单的消息到模型
    response = client.chat.completions.create(
        model=chat_model,
        messages=[
            {"role": "system", "content": "你是一个乐于助人的AI助手,能够帮助用户解决各种专业问题."},
            {"role": "user", "content": "你好,介绍下你自己"}
        ]
    )
    
    # 打印模型的回复
    print("Model response:")
    print(response.choices[0].message.content)
except Exception as e:
    print(f"An error occurred: {e}")

结果如下:

证明配置成功,如果没有回应,检查API key是否配置对了,如果对了可能是平台服务器的原因,等服务器恢复正常就好了

相关推荐
gujunge18 小时前
Spring with AI (4): 搜索扩展——向量数据库与RAG(上)
ai·大模型·llm·openai·qwen·rag·spring ai·deepseek
WitsMakeMen20 小时前
rq-vae训练过程是什么样的
llm
用户528739463341 天前
AI 简历优化工具,一键润色,突出优势,提升求职通过率
api
8Qi81 天前
Hello-Agents阅读笔记--智能体经典范式构建--ReAct
人工智能·笔记·llm·agent·智能体
CoderJia程序员甲1 天前
GitHub 热榜项目 - 日榜(2026-03-23)
ai·大模型·llm·github·ai教程
bryant_meng1 天前
【Hung-yi Lee】《Introduction to Generative Artificial Intelligence》(4)
人工智能·深度学习·llm·aigc·业界资讯
swipe1 天前
做 RAG 不能只会检索:为什么 Loader 和 Splitter 才是知识库入库的第一步
算法·llm·agent
Tony沈哲1 天前
AI 正在进入本地时代,我开源了一个推理平台—— 支持多模型 / Agent / Workflow 的工程实现
人工智能·算法·llm
machunlin~1 天前
openclaw使用kimi2.5遇到的坑
llm·kimi·openclaw
AC赳赳老秦1 天前
OpenClaw办公文档处理技能:批量转换PDF/Excel,提取数据高效办公
大数据·人工智能·python·django·去中心化·deepseek·openclaw