【本文正在参加金石计划附加挑战赛------第一期命题】
什么是LangChain?
LangChain 是一个用于构建基于大语言模型(LLM)的应用程序的框架。它为开发者提供了一组工具和模块,以简化与语言模型的集成和应用开发。LangChain 的核心功能包括:
-
链式调用:LangChain 允许将多个操作链接在一起,例如将输入传递给语言模型,然后将输出用于进一步处理或与其他数据源交互。
-
多种语言模型支持:框架支持多种大语言模型,开发者可以方便地切换和组合不同的模型,以满足特定需求。
-
数据集成:LangChain 提供了与各种数据源(如数据库、API、文件系统等)的集成,方便开发者从多种渠道获取和处理数据。
-
上下文管理:框架支持在对话或任务中管理上下文信息,以提高模型的响应质量和准确性。
-
扩展性:LangChain 允许开发者自定义和扩展功能,以适应特定的应用场景。
LangChain 的设计理念是降低与大语言模型交互的复杂性,使得开发者可以更专注于构建实际应用,而不是处理底层的技术细节。
使用LangChain For Go构建LLM应用程序
LangChain 原本是使用 Python 开发的,LangChain for Go 是 LangChain 框架的 Go 版本实现,旨在为 Go 开发者提供构建基于大语言模型(LLM)应用的工具和功能。与 Python 版本相比,LangChain for Go 旨在将链式调用、数据集成和上下文管理等概念带入 Go 生态系统,使开发者能够轻松构建和扩展 LLM 应用。
创建一个工程并安装依赖
首先打开 Goland,创建一个工程,然后安装依赖:
bash
go get github.com/tmc/langchaingo
编写一个简单的 main 函数:
go
package main
import (
"context"
"fmt"
"log"
"github.com/joho/godotenv"
"github.com/tmc/langchaingo/llms"
"github.com/tmc/langchaingo/llms/openai"
)
func main() {
// 加载 .env 文件
err := godotenv.Load()
if err != nil {
fmt.Println("Error loading .env file")
return
}
ctx := context.Background()
llm, err := openai.New()
if err != nil {
log.Fatal(err)
}
prompt := "What would be a good company name for a company that makes colorful socks?"
completion, err := llms.GenerateFromSinglePrompt(ctx, llm, prompt)
if err != nil {
log.Fatal(err)
}
fmt.Println(completion)
}
在项目根目录创建 .env
文件:
text
OPENAI_API_KEY=your api key
这个文件里面存放你的 OPENAI_API_KEY
,Api Key 从 OpenAI 官方网站申请。然后使用 godotenv
库解析 .env
文件,但是你首先得安装这个库:
bash
go get github.com/joho/godotenv
输出得到:
text
Socktastic
其他的示例
其他的 langchaingo
库的用法参考源码:
总结
langchaingo
这个库主要目的是简化使用 Go 语言开发 LLM 应用程序的步骤,它提供了基础的结构体、函数将原本调用 OpenAI 的 http 接口的过程封装起来了,最终呈现在用户面前的是一个个对应接口的函数或者方法。用户不需要关心那些 http 接口的具体地址,只需要关系业务逻辑的开发即可,最终实现与现有的业务系统集成。
其实,使用 langchain 不单单可以开发简单的对话机器人服务,还可以用于开发一些指令解析的功能。比如用户输入一个指令或用一句话要实现一个系统的操作,那么系统可以调用 OpenAI 的接口解析这个指令然后做出对应的操作,在笔者的公司内部已经使用了运维机器人来实现自动化运维减少了人力成本。其实这也就是智能体------AI Agent。
有兴趣可以了解一下智能体。