调用大模型API-文心一言

一、准备工作

进入百度智能云千帆大模型平台,点击应用接入-创建应用;按提默认完成创建

二、开始使用

单轮调用

进入API列表 - ModelBuilder以第一个**ERNIE-4.0-8K**为例,选择"HTTP请求调用",把第一步创建应用的 应用API Key、应用Secret Key替换到代码中,即可进行单轮对话。

python 复制代码
import requests
import json

def get_access_token():
    """
    使用 API Key,Secret Key 获取access_token,替换下列示例中的应用API Key、应用Secret Key
    """
        
    url = "https://aip.baidubce.com/oauth/2.0/token?grant_type=client_credentials&client_id=[应用API Key]&client_secret=[应用Secret Key]"
    
    payload = json.dumps("")
    headers = {
        'Content-Type': 'application/json',
        'Accept': 'application/json'
    }
    
    response = requests.request("POST", url, headers=headers, data=payload)
    return response.json().get("access_token")

def main():
    url = "https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions_pro?access_token=" + get_access_token()
    
    payload = json.dumps({
        "messages": [
            {
                "role": "user",
                "content": "介绍一下北京"
            }
        ]
    })
    headers = {
        'Content-Type': 'application/json'
    }
    
    response = requests.request("POST", url, headers=headers, data=payload)
    
    print(response.text)
    

if __name__ == '__main__':
    main()

多轮调用

每次请求调用5轮之前的会话,并且把response保存在会话记录参与到下一轮的调用。

python 复制代码
import time

import pandas as pd
import json
import requests

API_KEY="API_KEY"
SECRET_KEY="SECRET_KEY"

menu=['query1','query2','query3','query4']

#上下文初始化
context=[]

context_prefix="文本的内容是:"
context_suffix="。文本中内容区分开便于后期做embedding"
#initial_question="你好,能帮我描述系统菜单吗?"

all_responses=[]

def get_access_token():
"""
使用AK,SK生成鉴权签名(AccessToken)
:return:access_token,或是None(如果错误)
"""
    url="https://aip.baidubce.com/oauth/2.0/token"
    params={"grant_type":"client_credentials","client_id":API_KEY,"client_secret":SECRET_KEY}
    returnstr(requests.post(url,params=params).json().get("access_token"))

#Functiontoaddanewmessagetothecontextandmaintainthelatest5rounds
def update_context(new_assistant_response):
    #添加用户的新提问
    #context.append({"role":"user","content":new_user_input})
    #添加模型的新回答
    context.append({"role":"assistant","content":new_assistant_response})

#保持上下文的最新五轮对话(即10条消息)
if len(context)>9:
    context.pop(0)
    context.pop(0)

def get_desc_by_api(context):
    url="https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions_pro?   access_token="+get_access_token()

    payload=json.dumps({
    "messages":context
})
    headers={
    'Content-Type':'application/json'
}

    response=requests.request("POST",url,headers=headers,data=payload)
    returnresponse



definitialize_context():
    context.extend([
{
"role":"user",
"content":"query1"
},{
"role":"assistant",
"content":"response1"
},{
"role":"user",
"content":"query2"
},{
"role":"assistant",
"content":"response2"
}
])
#context=context[0]

initialize_context()
print("context",context)
#模拟多轮对话
for i in range(len(menu)):
    current_menu_item=menu[i]

    #生成用户提问
    new_user_input=context_prefix+current_menu_item+context_suffix
    context.append({"role":"user","content":new_user_input})

    #发送请求
    api_response=get_desc_by_api(context)
    print("status_code:",api_response.text)
    ifapi_response.status_code==200:
    new_assistant_response=api_response.json().get("result")
    #更新上下文
    update_context(new_assistant_response)
    print(f"对话轮次{i+1},当前上下文:{context}")

    response_entry={
        "menu_item":current_menu_item,
        "response":new_assistant_response
    }

    all_responses.append(response_entry)

#将所有回答存储到一个JSON文件中
with open('responses.json','w',encoding='utf-8') as f:
    json.dump(all_responses,f,ensure_ascii=False,indent=4)
相关推荐
Coder个人博客16 小时前
MiniCPM-o.cpp 接口调用流程综合总结
llama
骚戴20 小时前
n1n:从替代LiteLLM Proxy自建网关到企业级统一架构的进阶之路
人工智能·python·大模型·llm·gateway·api
骚戴1 天前
LLM API Gateway:LLM API 架构、AI 聚合与成本优化全解(2025深度指南)
人工智能·python·大模型·llm·gateway·api
大模型实验室Lab4AI1 天前
Qwen-Video-8B与LLaMA-Factory联动实现垂类视频理解
人工智能·音视频·llama
百***78751 天前
LLaMA 4 API国内稳定接入指南:中转服务全链路实操与优化方案
开发语言·php·llama
百***24371 天前
LLaMA 4 vs GPT-5.2 全面对比:技术特性、接入成本与国内适配选型指南
gpt·llama
Coder个人博客2 天前
MiniCPM-o.cpp 项目概览
llama
大模型实验室Lab4AI3 天前
LLaMA-Factory 课程答疑系列一:10个关键问题速查,官方认证解法让训练推理不踩雷
人工智能·llama
小苑同学3 天前
PaperReding:《LLaMA: Open and Efficient Foundation Language Models》
人工智能·语言模型·llama
deephub3 天前
llama.cpp Server 引入路由模式:多模型热切换与进程隔离机制详解
人工智能·python·深度学习·llama