Python调用OpenAI API完整教程:从零到精通
前言
最近AI大模型火得一塌糊涂,很多开发者想把GPT接到自己项目里,但官方文档看着一头雾水。这篇文章把整个流程从头到尾走一遍,保证你看完就能跑起来。
一、准备工作
1.1 安装OpenAI SDK
bash
pip install openai
建议用虚拟环境隔离:
bash
python -m venv ai-env
# Windows
ai-env\Scripts\activate
# macOS/Linux
source ai-env/bin/activate
pip install openai
1.2 获取API Key
到OpenAI官网注册账号,在API Keys页面创建一个新的Key。
⚠️ 注意:API Key只显示一次,务必保存好。如果泄露了立刻去后台撤销。
二、最简示例:一次对话
python
from openai import OpenAI
client = OpenAI(api_key="sk-your-api-key-here")
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[
{"role": "user", "content": "用一句话解释什么是递归"}
]
)
print(response.choices[0].message.content)
输出示例:
递归是函数在自己的定义中调用自身,通过不断缩小问题规模直到满足终止条件来求解问题的编程技巧。
三、流式输出(打字机效果)
普通调用要等AI全部生成完才返回,体验差。流式输出可以逐字显示:
python
from openai import OpenAI
client = OpenAI(api_key="sk-your-api-key-here")
stream = client.chat.completions.create(
model="gpt-4o-mini",
messages=[
{"role": "user", "content": "写一首关于编程的五言绝句"}
],
stream=True # 关键参数
)
for chunk in stream:
if chunk.choices[0].delta.content is not None:
print(chunk.choices[0].delta.content, end="", flush=True)
print() # 换行
四、多轮对话
AI模型本身没有记忆,多轮对话靠你把历史消息传回去:
python
from openai import OpenAI
client = OpenAI(api_key="sk-your-api-key-here")
# 维护对话历史
messages = [
{"role": "system", "content": "你是一个Python编程助手,回答简洁专业。"}
]
def chat(user_input):
messages.append({"role": "user", "content": user_input})
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=messages
)
assistant_msg = response.choices[0].message.content
messages.append({"role": "assistant", "content": assistant_msg})
return assistant_msg
# 测试多轮对话
print(chat("Python的列表推导式是什么?"))
print(chat("能给几个实际例子吗?"))
print(chat="和map/filter比哪个好?"))
⚠️ 注意:messages列表会越来越长,token消耗也越大。生产环境需要做截断或摘要处理。
五、实用技巧
5.1 控制输出格式(JSON Mode)
python
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[
{"role": "user", "content": "列出3个Python Web框架,用JSON格式返回,字段:name, description, stars"}
],
response_format={"type": "json_object"} # 强制JSON输出
)
import json
data = json.loads(response.choices[0].message.content)
print(json.dumps(data, indent=2, ensure_ascii=False))
5.2 设置温度参数
python
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": "给我起一个技术博客名字"}],
temperature=0.9 # 0=保守确定,1=创意发散
)
temperature=0:适合事实性问答、代码生成temperature=0.7:通用场景temperature=1.0+:创意写作、头脑风暴
5.3 超时和重试
python
from openai import OpenAI
import time
client = OpenAI(
api_key="sk-your-api-key-here",
timeout=30.0, # 请求超时30秒
max_retries=2 # 最多重试2次
)
5.4 计算Token消耗
python
# 响应对象中包含token统计
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": "你好"}]
)
usage = response.usage
print(f"输入Token: {usage.prompt_tokens}")
print(f"输出Token: {usage.completion_tokens}")
print(f"总计Token: {usage.total_tokens}")
六、常见错误处理
python
from openai import OpenAI, APIError, RateLimitError, APIConnectionError
client = OpenAI(api_key="sk-your-api-key-here")
try:
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": "Hello"}]
)
except RateLimitError:
print("⚠️ 请求太频繁,请稍后重试")
except APIConnectionError:
print("⚠️ 网络连接失败,检查网络设置")
except APIError as e:
print(f"⚠️ API错误:{e.status_code} - {e.message}")
else:
print(response.choices[0].message.content)
七、函数调用(Function Calling)
让AI有能力调用外部工具:
python
import json
client = OpenAI(api_key="sk-your-api-key-here")
# 定义工具
tools = [
{
"type": "function",
"function": {
"name": "get_weather",
"description": "获取指定城市的天气信息",
"parameters": {
"type": "object",
"properties": {
"city": {
"type": "string",
"description": "城市名称"
}
},
"required": ["city"]
}
}
}
]
# 第一次调用:AI决定是否使用工具
response = client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": "北京今天天气怎么样?"}],
tools=tools
)
message = response.choices[0].message
if message.tool_calls:
# AI想要调用工具
tool_call = message.tool_calls[0]
args = json.loads(tool_call.function.arguments)
print(f"AI想调用: {tool_call.function.name}({args})")
# 这里执行实际函数,模拟返回结果
weather_result = {"city": "北京", "temperature": "22°C", "condition": "晴"}
# 第二次调用:把工具结果传回给AI
response2 = client.chat.completions.create(
model="gpt-4o-mini",
messages=[
{"role": "user", "content": "北京今天天气怎么样?"},
message,
{
"role": "tool",
"tool_call_id": tool_call.id,
"content": json.dumps(weather_result, ensure_ascii=False)
}
],
tools=tools
)
print(response2.choices[0].message.content)
八、模型选择指南
| 模型 | 适用场景 | 价格(输入/输出 per 1M tokens) |
|---|---|---|
| gpt-4o | 复杂推理、代码生成、长文分析 | <math xmlns="http://www.w3.org/1998/Math/MathML"> 2.5 / 2.5 / </math>2.5/10 |
| gpt-4o-mini | 日常对话、简单任务、高频调用 | <math xmlns="http://www.w3.org/1998/Math/MathML"> 0.15 / 0.15 / </math>0.15/0.6 |
| o3-mini | 数学推理、逻辑分析 | <math xmlns="http://www.w3.org/1998/Math/MathML"> 1.1 / 1.1 / </math>1.1/4.4 |
日常开发用 gpt-4o-mini 性价比最高,复杂任务再上 gpt-4o。
九、异步调用
高并发场景用异步:
python
import asyncio
from openai import AsyncOpenAI
async def main():
client = AsyncOpenAI(api_key="sk-your-api-key-here")
# 并发5个请求
tasks = [
client.chat.completions.create(
model="gpt-4o-mini",
messages=[{"role": "user", "content": f"用5个字形容数字{i}"}]
)
for i in range(5)
]
responses = await asyncio.gather(*tasks)
for i, resp in enumerate(responses):
print(f"{i}: {resp.choices[0].message.content}")
asyncio.run(main())
总结
- 基础调用只需要3行代码
- 多轮对话靠维护messages列表
- 流式输出提升用户体验
- Function Calling让AI能调用外部工具
- 日常用gpt-4o-mini,复杂任务上gpt-4o
有问题欢迎评论区讨论,我会尽量回复。