大家好,我是Edison。
上一篇,我们了解了什么如何让一些开源小参数量模型具有函数调用的能力。这一篇,我们来快速了解下RAG(检索增强生成)并通过一个简单的DEMO来直观感受一下它的作用。
RAG是什么?
检索增强生成(Retrieval Augmented Generation),简称 RAG,它是根据用户输入的提示词,通过自有垂域数据库检索相关信息,然后合并成为一个新的"完备的"提示词,最后再给大模型生成较为准确的回答。
例如,假设你正在构建问答聊天机器人,以帮助员工回答有关公司专有文档的问题。如果没有专门的培训,独立的 LLM 将无法准确回答有关这些文档的内容的问题,因为这些 LLM 都是基于互联网上公开的数据训练的。LLM 可能会因为缺乏信息而拒绝回答,或者更糟的是,它可能会生成不正确的响应。
为了解决这个问题,RAG 首先根据用户的查询从公司文档检索相关信息,然后将检索到的信息作为额外的上下文提供给 LLM。这样,LLM 就可以根据在相关文档中找到的特定详细信息生成更准确的响应。从本质上讲,RAG 使 LLM 能够"咨询"检索到的信息来表述其答案。
一般的RAG工作流程如下图所示,它实现了 非参数事实知识 和 逻辑推理能力 的解耦或分离,这些事实知识存储在外部知识库中独立管理和更新,确保LLM能够访问到就行。
综上所述,RAG其实类似于大学期末的开卷考试,反正知识点都在书里,你平时都没学过,得先找一找,找到了就把相关答案写在试卷上,考完了还是忘得一干二净,但是你的目标达到了:考试及格60分万岁!对于LLM来说,它完成了任务,给你了一个至少可以有60分的回答。下面总结下:
- **检索(Retrieve):**根据用户提示词从知识库中获取相关知识上下文。
- 增强(Augment):将用户的原始提示词 和 获取到的知识 进行合并,形成一个新的提示词。
- 生成(Generate):将增强后的新提示词发给LLM进行输出。
直观感受RAG
这里我们就不深究RAG的更多细节内容了,先来通过一个DEMO直观感受下RAG到底有什么作用。至于那些更多的细节内容,留到后续学习实践后,再总结分享。
这仍然是一个WindowsForm的DEMO应用,界面如下:
(1)在没有使用RAG时的查询
(2)使用RAG:导入内部知
(3)使用RAG:检索增强查询
可以看到,基于导入的内部知识,LLM能够基于RAG获得这些知识片段,然后结合用户的问题 和 知识片段 来生成较为准确的答案。
DEMO要点
(1)配置文件
DEMO中LLM使用的是Qwen2-7B-Instruct的模型,Embedding使用的是bge-m3模型,具体的配置如下:
{
"OpenAI": {
"API_PROVIDER": "SiliconCloud",
"API_CHATTING_MODEL": "Qwen/Qwen2-7B-Instruct",
"API_EMBEDDING_MODEL": "BAAI/bge-m3",
"API_BASE_URL": "https://api.siliconflow.cn",
"API_KEY": "**********************" // Update this value to yours
},
"TextChunker": {
"LinesToken": 100,
"ParagraphsToken": 1000
}
}
(2)使用组件
使用到的组件包主要有两个:
-
Microsoft.SemanticKernel 1.19.0
-
Microsoft.SemanticKernel.Connectors.OpenAI 1.19.0
-
Microsoft.SemanticKernel.Connectors.Sqlite 1.19.0-alpha
可以看到这里使用的是一个本地数据Sqlilte来作为向量数据库存储,因为我们这个仅仅是个快速的DEMO,实际中可能会考虑选择更为适合的DB。需要注意的是,这里Sqlite这个包是个预览版,你在Nuget管理器中需要注意下勾选包含预览版才能搜索得到。
也正因为这个预览版,很多用法都有警告提示,所以最好在代码中加上下面这些将其禁用掉:
#pragma warning disable SKEXP0050
#pragma warning disable SKEXP0001
#pragma warning disable SKEXP0020
#pragma warning disable SKEXP0010
public partial class ChatForm : Form
{
......
}
(3)Embedding
private void btnEmbedding_Click(object sender, EventArgs e)
{
var query = new QueryModel(tbxIndex.Text, tbxPrompt.Text);
_textMemory = this.GetTextMemory().GetAwaiter().GetResult();
var lines = TextChunker.SplitPlainTextLines(query.Text, _textChunkerLinesToken);
var paragraphs = TextChunker.SplitPlainTextParagraphs(lines, _textChunkerParagraphsToken);
foreach (var para in paragraphs)
{
Task.Run(() =>
{
ShowProcessMessage("AI is embedding your content now...");
_textMemory.SaveInformationAsync(
query.Index,
id: Guid.NewGuid().ToString(),
text: para)
.GetAwaiter()
.GetResult();
ShowProcessMessage("Embedding success!");
MessageBox.Show("Embedding success!", "Information", MessageBoxButtons.OK, MessageBoxIcon.Information);
});
}
}
private async Task<ISemanticTextMemory> GetTextMemory()
{
var memoryBuilder = new MemoryBuilder();
var embeddingApiClient = new HttpClient(new OpenAiHttpHandler(_embeddingApiConfiguration.Provider, _embeddingApiConfiguration.EndPoint));
memoryBuilder.WithOpenAITextEmbeddingGeneration(
_embeddingApiConfiguration.ModelId,
_embeddingApiConfiguration.ApiKey,
httpClient: embeddingApiClient);
var memoryStore = await SqliteMemoryStore.ConnectAsync("memstore.db");
memoryBuilder.WithMemoryStore(memoryStore);
var textMemory = memoryBuilder.Build();
return textMemory;
}
在Click事件中,调用GetTextMemory方法进行真正的Embedding操作,然后进行数据持久化到本地的Sqlite数据库。在GetTextMemory这个方法中,实现了调用Embedding模型API进行词嵌入。
数据写入Sqlite后打开表后的效果如下图所示。至于这个collection字段,是对应界面中的Index字段,这里我们暂时不用管它。
(4)Generation
private void btnGetRagResponse_Click(object sender, EventArgs e)
{
if (_textMemory == null)
_textMemory = this.GetTextMemory().GetAwaiter().GetResult();
var query = new QueryModel(tbxIndex.Text, tbxPrompt.Text);
var memoryResults = _textMemory.SearchAsync(query.Index, query.Text, limit: 3, minRelevanceScore: 0.3);
Task.Run(() =>
{
var existingKnowledge = this.BuildPromptInformation(memoryResults).GetAwaiter().GetResult();
var integratedPrompt = @"
获取到的相关信息:[{0}]。
根据获取到的信息回答问题:[{1}]。
如果没有获取到相关信息,请直接回答 Sorry不知道。
";
ShowProcessMessage("AI is handling your request now...");
var response = _kernel.InvokePromptAsync(string.Format(integratedPrompt, existingKnowledge, query.Text))
.GetAwaiter()
.GetResult();
UpdateResponseContent(response.ToString());
ShowProcessMessage("AI Response:");
});
}
private async Task<string> BuildPromptInformation(IAsyncEnumerable<MemoryQueryResult> memoryResults)
{
var information = string.Empty;
await foreach (MemoryQueryResult memoryResult in memoryResults)
{
information += memoryResult.Metadata.Text;
}
return information;
}
在Click事件中,将用户的原始提示词 和 从知识库中获取的知识片段 通过一个提示词模板 组成另一个增强版的 提示词,最后将这个新的提示词发给LLM进行处理回答。
小结
本文简单介绍了一下RAG(检索增强生成)的基本概念 和 工作流程,然后通过一个简单的DEMO快速直观感受了一下RAG的作用。后续,我们会持续关注RAG的更多细节内容 和 落地实践。
参考内容
mingupupu 大佬的文章:https://www.cnblogs.com/mingupupu/p/18367726
示例源码
GitHub:https://github.com/Coder-EdisonZhou/EDT.Agent.Demos
推荐学习
Microsoft Learn, 《Semantic Kernel 学习之路》,点击查看原文按钮即可直达
作者:周旭龙
出处:https://edisonchou.cnblogs.com
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文链接。