5分钟带你获取deepseek api并搭建简易问答应用

目录

1、获取api

2、获取base_url和chat_model

3、配置模型参数

方法一:终端中临时将加入

方法二:创建.env文件

[4、 配置client](#4、 配置client)

5、利用deepseek大模型实现简易问答


deepseek-v3是截止博文撰写之日,无论是国内还是国际上发布的大模型中表现十分亮眼的模型,这里以deepseek为例,讲解如何获取api_key、base_url、chat_model。

1、获取api

首先打开deepseek接口的官网:DeepSeek

点右上角"开放平台"

新号一般会送10元的余额,左上方会显示你当前余额按照当前的价格所拥有的tokens数量(tokens可以简单的理解为你输入给大模型的提示词+大模型输出的内容之和所占用的字符数,这个后续博客中会细讲分词原理),这个tokens数量可能会随着模型价格变化而变化,不过deepseek的api价格比较便宜,如图上所展示的送给新人的500万tokens数也够个人使用很久了。

接着,点击左侧的API keys, 然后点击创建API key

一般需要给API key命名用来区分不同的API,比如下图命名为"test"

​ 这里需要注意的是,系统生成的API key只有第一次创建时能看到并且复制,此后都无法再次看到,只能看到名字,所以需要大家第一次就将其复制下来,保存到你的文件中,当然如果忘记了也影响不大,重新创建一个就行。

2、获取base_url和chat_model

同样以deepseek为例,点击2.1.1页面左下角的接口文档, 或者直接进入DeepSeek API文档

进入文档后,在"快速开始"的"首次调用API"中,可以找到base_url和chat_model,如下:

base_url = https://api.deepseek.com/v1

chat_model='deepseek-chat'

其他平台与deepseek的获取方式差不多

3、配置模型参数

base_url和chat_model直接定义即可,但api key是关乎着模型是否能够使用的,所以尽量不要把其暴露在模型定理里面,而是把他添加到环境变量里,这里介绍两种方法添加环境变量。

方法一:终端中临时将加入

在终端中临时将token加入变量,此时该环境变量只在当前终端内有效 !!! 所以该种方法需要我们在该终端中运行我们的py脚本。

java 复制代码
export api_key="填入你的api token"

若是想永久加入环境变量,可以对 ~/.bashrc 文件中添加以下内容并保存。

java 复制代码
export api_key="填入你的api token"

此时在代码中获取api 只需要在Python脚本中添加以下代码即可

python 复制代码
import os
api_key = os.getenv('api_key')
base_url = "https://api.deepseek.com/v1"
chat_model = "deepseek-chat"

方法二:创建.env文件

终端输入命令临时创建也比较麻烦,而且只在当前终端内有效,而创建.env文件存储api_key则不存在这种问题。

首先创建.env文件,然后输入以下内容,记得替换成你的token

python 复制代码
api_key="your api_key"

同一路径下创建脚本文件,然后在代码中添加以下内容

python 复制代码
import os
from dotenv import load_dotenv


# 加载.env文件中的环境变量
load_dotenv()

# 获取特定的环境变量
api_key = os.getenv('api_key')

base_url = "https://api.deepseek.com/v1"
chat_model = "deepseek-chat"

4、 配置client

有了前面的三个参数,我们就可以构造一个client,构造client只需要两个东西:api_key和base_url。

python 复制代码
from openai import OpenAI
client = OpenAI(
    api_key = api_key,
    base_url = base_url
)

5、利用deepseek大模型实现简易问答

我们这里使用第二种方式定义api_key,创建.env文件存储api_key后,在.env同一目录下创建脚本文件,填入以下代码:

python 复制代码
import os
from dotenv import load_dotenv
from openai import OpenAI
# 加载环境变量
load_dotenv()
# 从环境变量中读取api_key
api_key = os.getenv('api_key')
base_url = "https://api.deepseek.com/v1"
chat_model = "deepseek-chat"


client = OpenAI(
    api_key = api_key,
    base_url = base_url
)

有了这个client,我们就可以去实现各种能力了。

举个简单例子测试一下模型是否配置成功,配置好api的token后,输入以下代码

python 复制代码
import os
from dotenv import load_dotenv
from openai import OpenAI

# 加载环境变量
load_dotenv()

# 从环境变量中读取api_key
api_key = os.getenv('api_key')
base_url = "https://api.deepseek.com/v1"
chat_model = "deepseek-chat"

client = OpenAI(
    api_key=api_key,
    base_url=base_url
)

try:
    # 发送一个简单的消息到模型
    response = client.chat.completions.create(
        model=chat_model,
        messages=[
            {"role": "system", "content": "你是一个乐于助人的AI助手,能够帮助用户解决各种专业问题."},
            {"role": "user", "content": "你好,介绍下你自己"}
        ]
    )
    
    # 打印模型的回复
    print("Model response:")
    print(response.choices[0].message.content)
except Exception as e:
    print(f"An error occurred: {e}")

结果如下:

证明配置成功,如果没有回应,检查API key是否配置对了,如果对了可能是平台服务器的原因,等服务器恢复正常就好了

相关推荐
聚客AI7 小时前
🌈多感官AI革命:解密多模态对齐与融合的底层逻辑
人工智能·llm·掘金·日新计划
大模型教程9 小时前
12天带你速通大模型基础应用(四)声音克隆技术实践
程序员·llm·agent
RestCloud9 小时前
PostgreSQL大表同步优化:如何避免网络和内存瓶颈?
前端·数据库·api
大模型教程10 小时前
12天带你速通大模型基础应用(三)LLM全流程部署教程
程序员·llm·agent
AI大模型10 小时前
无所不能的Embedding(05) - skip-thought的兄弟们[Trim/CNN-LSTM/quick-thought]
程序员·llm·agent
AI大模型10 小时前
无所不能的Embedding(04) - skip-thought & tf-Seq2Seq源码解析
程序员·llm·agent
文 丰11 小时前
【centos7】部署ollama+deepseek
centos·deepseek
智泊AI11 小时前
AI大模型 | 从基本原理到代码理解语言模型的训练和推理过程
llm
用户2680013791912 小时前
淘宝评论API获取JSON数据全流程指南
api
智能建造小硕15 小时前
使用LLM(Ollama部署)为Bertopic确定的主题命名
llm·ollama