开发篇1:使用原生api和Langchain调用大模型

对大模型的调用通常有以下几种方式:方式一、大模型厂商都会定义http风格的请求接口,在代码中可以直接发起http请求调用;方式二、在开发环境中使用大模型厂商提供的api;方式三、使用开发框架Langchain调用,这个就像java对数据库的调用一样,可以直接用jdbc也可以使用第三方框架,第三方框架调用会封装一些共性问题,比如参数配置,多数据库统一调用方式,连接处理,缓存处理等等,使用第三方框架调用往往会大幅提高开发效率。下面逐一说明几种调用方式
方式一: post请求调用,以openai(chatgpt)为例,demo如下,举例代码语言为python,http调用各种语言都有这个能力,个人建议还是python来做大模型相关开发,pandas对数据集合处理已经比较成熟,内存运算性能也很高,下面的例子中requests为python的requests的模块
response = requests.post(
"https://api.openai.com/v1/chat/completions",
headers=headers,
json=json_data,
)
其中head封装了在openai上注册的key
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer " + openai.api_key,
}
json是一个python的字典,封装了模型名称和messages(prompt请求)
json_data = {"model": model, "messages": messages}
方式二:python使用使用大模型厂商提供的api(openai为例),首先要在开发环境中pip安装tiktoken和openai模块,openai有两个接口,1个是对话模型,1个语言模型,调用方式分别如下
pip install tiktoken openai
#调用Completion api,openai会以json返回回答
data = openai.Completion.create(
model="text-davinci-003",
prompt="牛肉面故乡在哪里",
max_tokens=1000,
temperature=0
)
#调用 chat Completion api,chat Completion api是GPT3.5开始使用的问答模型,可以使用这个模型实现一问一答
messages=[
{
"role": "user",
"content": "你好"
}
]
data = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages = messages
)
方式三:用使用langchain调用,使用langchain自带的OpenAI类,
from langchain.llms import OpenAI
llm = OpenAI(model_name="text-davinci-003")
llm("牛肉面起源于哪个城市")
Langchain有model,Data Connection,chains,Memory,Agents,Callbacks,每个模块的使用会在下一篇说明,OpenAI类属于model模块,如下图所示,Model 模块的主要职责1个是提示词的生成,1个是解决对大模型的调用的封装,这个有点像java里面Springboot template对jdbc的封装,封装后统一了对各类模型的调用

相关推荐
陈敬雷-充电了么-CEO兼CTO8 小时前
DeepSeek核心算法解析:如何打造比肩ChatGPT的国产大模型
人工智能·神经网络·自然语言处理·chatgpt·大模型·aigc·deepseek
♢.*19 小时前
析言GBI:用自然语言交互重构企业数据分析范式
人工智能·数据分析·大模型·交互·bi·阿里
cpuCode1 天前
BERT 大模型
人工智能·深度学习·ai·自然语言处理·大模型·llm·bert
奋斗的袍子0072 天前
DeepSeek-R1本地部署详细指南!(Ollama+Chatbox AI+Open WebUI)
人工智能·后端·深度学习·大模型·webui·本地部署·deepseek
jxandrew2 天前
大模型驱动的业务自动化
ai·大模型·自动化编程
bdawn2 天前
构建高效智能对话前端:基于Ant Design X 的deepseek对话应用
ai·大模型·交互·对话·实时通信·deepseek·ant design x
一马平川的大草原3 天前
DeepSeek在linux下的安装部署与应用测试
linux·大模型·deepseek
涛涛讲AI3 天前
通俗诠释 DeepSeek-V3 模型的 “671B” ,“37B”与 “128K”,用生活比喻帮你理解模型的秘密!
人工智能·python·大模型·生活·deepseek
运维小文3 天前
华为昇腾920b服务器部署DeepSeek翻车现场
运维·服务器·大模型·deepseek部署·昇腾920b物理服务器
天翼云开发者社区3 天前
DeepSeek-R1满血版性能飙升四倍,成本大降,竟是因为……
大模型·ai应用·deepseek