【GPT入门】第6课 openai接口介绍与参数说明

【GPT入门】第6课 openai接口介绍与参数说明

  • [1. openAI 接口概述](#1. openAI 接口概述)
  • [2. 接口说明](#2. 接口说明)
  • [3. 参数重点](#3. 参数重点)

1. openAI 接口概述

其它大模型的 API 基本都是参考 OpenAI,只有细节上稍有不同。

OpenAI 提供了两类 API:

Completion API:续写文本,多用于补全场景。https://platform.openai.com/docs/api-reference/completions/create

Chat API:多轮对话,但可以用对话逻辑完成任何任务,包括续写文本。https://platform.openai.com/docs/api-reference/chat/create

说明:

Chat 是主流,有的大模型只提供 Chat

背后的模型可以认为是一样的,但其实并不一样

Chat 模型是纯生成式模型做指令微调(SFT)之后的结果,更多才多艺,更听话

2. 接口说明

c 复制代码
def get_chat_completion(session, user_prompt, model="gpt-4o-mini"):
    session.append({"role": "user", "content": user_prompt})
    response = client.chat.completions.create(
        model=model,
        messages=session,
        # 以下默认值都是官方默认值
        temperature=1,          # 生成结果的多样性。取值 0~2 之间,越大越发散,越小越收敛
        seed=None,              # 随机数种子。指定具体值后,temperature 为 0 时,每次生成的结果都一样
        stream=False,           # 数据流模式,一个字一个字地接收
        response_format={"type": "text"},  # 返回结果的格式,可以是 text、json_object 或 json_schema
        top_p=1,                # 随机采样时,只考虑概率前百分之多少的 token。不建议和 temperature 一起使用
        n=1,                    # 一次返回 n 条结果
        max_tokens=None,        # 每条结果最多几个 token(超过截断)
        presence_penalty=0,     # 对出现过的 token 的概率进行降权
        frequency_penalty=0,    # 对出现过的 token 根据其出现过的频次,对其的概率进行降权
        logit_bias={},          # 对指定 token 的采样概率手工加/降权,不常用
    )
    msg = response.choices[0].message.content
    return msg

3. 参数重点

Temperature 参数很关键

执行任务用 0,文本生成用 0.7-0.9

无特殊需要,不建议超过 1

相关推荐
盼小辉丶1 天前
PyTorch实战(10)——从零开始实现GPT模型
人工智能·pytorch·gpt·深度学习
Constantine372 天前
GPT-5.1已上线!亲测国内可用,保姆级使用教程
gpt
FreeBuf_2 天前
攻击者利用自定义GPT的SSRF漏洞窃取ChatGPT机密数据
gpt·chatgpt
yaocheng的ai分身2 天前
【转载】 OpenAI 推出 GPT-5.1:面向开发者的智能模型
gpt·chatgpt
AI探知-阿薇2 天前
GPT-5.1发布:深入解读与 GPT-5、GPT-4o 在性能与安全基准上的全面对比
gpt·安全
illuspas4 天前
MI50运算卡使用llama.cpp的ROCm后端运行gpt-oss-20b的速度测试
人工智能·gpt·llama
TGITCIC5 天前
开源模型登顶?Kimi K2 Thinking 实测解析:它真能超越 GPT-5 吗?
gpt·ai大模型·开源大模型·kimi·月之暗面·大模型ai·国产大模型
金木讲编程7 天前
如何创建“国学助手”GPT?
gpt·ai编程
少林码僧7 天前
2.3 Transformer 变体与扩展:BERT、GPT 与多模态模型
人工智能·gpt·ai·大模型·bert·transformer·1024程序员节
FreeBuf_7 天前
GPT-4o与GPT-5存在七项零点击攻击漏洞
gpt·chatgpt