《LlamaIndex 之美》-01-LLM、Prompt、Embedding基础入门

在基于数据构建任何 LLM 应用程序时,选择合适的大型语言模型 (LLM) 是您需要考虑的首要步骤之一。

LLM 是 LlamaIndex 的核心组成部分。它们可以作为独立模块使用,也可以插入到其他核心 LlamaIndex 模块(索引、检索器、查询引擎)中。

LlamaIndex 提供了一个统一的接口来定义 LLM 模块,支持对接世面上多种LLM大模型能力。

  • 支持文本完成聊天端点
  • 支持流式处理 和非流式处理终结点
  • 支持同步异步端点

本Llamaindex系列文章使用的模型是阿里的灵积平台

Llamaindex 对接 QWen LLM

在Llamaindex中使用LLM很简单,在这里你可以看到目前Llamaindex已经支持的LLM类型,下面我将使用QWen模型实现一个入门案例。

  1. 安装相关依赖
bash 复制代码
# 引入灵积平台依赖
!pip install llama-index-llms-dashscope --quiet
# 加载环境变量
!pip install python-dotenv --quiet
  1. 初始化模型Client对象
python 复制代码
from llama_index.llms.dashscope import DashScope, DashScopeGenerationModels
from dotenv import load_dotenv

# 加载环境变量
load_dotenv()

dashscope_llm = DashScope(
    model_name=DashScopeGenerationModels.QWEN_TURBO,
    max_tokens=1000,
    enable_search=False,
    temperature=0.2
)

关于如何使用dotenv,可以参考文章《揭秘python-dotenv:那些鲜为人知的实用窍门

  1. 构建complete回话
python 复制代码
# 同步输出
resp = dashscope_llm.complete("你好!")
print(resp)
  1. 构建stream会话
python 复制代码
# 流式输出
responses = dashscope_llm.stream_complete("你好!")
for response in responses:
    print(response.delta, end="")
  1. 构建Chat会话
python 复制代码
# chat 模型会话
from llama_index.core.base.llms.types import MessageRole, ChatMessage

messages = [
    ChatMessage(
        role=MessageRole.SYSTEM, content="你是一个AI智能机器人"
    ),
    ChatMessage(role=MessageRole.USER, content="你好。"),
]
resp = dashscope_llm.chat(messages)
print(resp)
  1. 构建多轮会话
python 复制代码
# 多轮对话
messages = [
    ChatMessage(
        role=MessageRole.SYSTEM, content="你是一个AI智能机器人"
    ),
    ChatMessage(role=MessageRole.USER, content="你好。"),
]
# first round
resp = dashscope_llm.chat(messages)
print(resp)

# add response to messages.
messages.append(
    ChatMessage(role=MessageRole.ASSISTANT, content=resp.message.content)
)

messages.append(
    ChatMessage(role=MessageRole.USER, content="如何制作一个蛋糕?")
)
# second round
resp = dashscope_llm.chat(messages)
print(resp)

LLamaindex 设置Prompt

在LLamaindex中使用Prompt就像创建格式字符串一样简单,

python 复制代码
from llama_index.core import PromptTemplate

template = (
    "我提供的上下文内容如下: \n"
    "---------------------\n"
    "{context_str}"
    "\n---------------------\n"
    "基于给出的内容,回答一下问题: {query_str}\n"
)
qa_template = PromptTemplate(template)

context_str = """
重达3000吨、总长超70米、20层楼高度,又一"大国重器"成功问世!此"重器"的诞生也标志我国自研冲破西方"壁垒"。
据悉,这个形状酷似"茅台"的国器是目前世界上最大的加氢反应器,其在石油工业中的地位"媲美芯片"。
不少西方国家对于此项技术给出高价,但我们表示:100%中国制造,永不出售!
"""
query_str = "总结一下加氢反应器?"
# you can create text prompt (for completion API)
prompt = qa_template.format(context_str=context_str, query_str=query_str)
print(prompt)
# or easily convert to message prompts (for chat API)
messages = qa_template.format_messages(context_str=context_str, query_str=query_str)
print(messages)

除此之外你还可以定义Chat格式的Prompt

python 复制代码
from llama_index.core import ChatPromptTemplate
from llama_index.core.llms import ChatMessage, MessageRole

message_templates = [
    ChatMessage(content="You are an expert system.", role=MessageRole.SYSTEM),
    ChatMessage(
        content="Generate a short story about {topic}",
        role=MessageRole.USER,
    ),
]
chat_template = ChatPromptTemplate(message_templates=message_templates)

# you can create message prompts (for chat API)
messages = chat_template.format_messages(topic="狼来了")
print(messages)
# or easily convert to text prompt (for completion API)
prompt = chat_template.format(topic="狼来了")
print(prompt)

Llamaindex 支持 Embedding

Embedding是一种将离散数据映射到连续空间的表示方法。在自然语言处理中,Embedding技术可以将单词、句子等文本数据转化为低维向量,从而捕捉文本的语义信息。

在LlamaIndex中,嵌入用于将文本数据映射到语义空间,使得相似的文本在向量空间中靠近。这种表示方式对于语义搜索、文本分类和信息检索等任务至关重要。通过嵌入,LlamaIndex能够理解和处理文本的细微差异,从而提供更精准和个性化的服务。

LlamaIndex利用Embedding技术实现文本向量的生成,具体步骤如下:

(1)预处理:对文本进行清洗、切块等处理。

(2)构建Embedding模型:使用预训练的Embedding模型,如Word2Vec、BERT等,将文本转化为向量。

(3)向量存储与搜索:与LLM应用类似,将向量存储到向量数据库中,并进行相似度检索。

目前,LLamaindex已经支持了很多Embedding模型,你可以在这里查看,本次Embedding使用的是灵积平台中的Embedding模型。

  1. 文件内容Embedding
python 复制代码
# imports
from llama_index.embeddings.dashscope import (
    DashScopeEmbedding,
    DashScopeTextEmbeddingModels,
    DashScopeTextEmbeddingType,
)

# Create embeddings
# text_type=`document` to build index
embedder = DashScopeEmbedding(
    model_name=DashScopeTextEmbeddingModels.TEXT_EMBEDDING_V2,
    text_type=DashScopeTextEmbeddingType.TEXT_TYPE_DOCUMENT,
)

text_to_embedding = ["风急天高猿啸哀", "渚清沙白鸟飞回", "无边落木萧萧下", "不尽长江滚滚来"]
# Call text Embedding
result_embeddings = embedder.get_text_embedding_batch(text_to_embedding)
# requests and embedding result index is correspond to.
for index, embedding in enumerate(result_embeddings):
    if embedding is None:  # if the correspondence request is embedding failed.
        print("The %s embedding failed." % text_to_embedding[index])
    else:
        print("Dimension of embeddings: %s" % len(embedding))
        print(
            "Input: %s, embedding is: %s"
            % (text_to_embedding[index], embedding[:5])
        )
  1. 查询Embedding
python 复制代码
# imports
from llama_index.embeddings.dashscope import (
    DashScopeEmbedding,
    DashScopeTextEmbeddingModels,
    DashScopeTextEmbeddingType,
)
# Create embeddings
# text_type=`query` to retrieve relevant context.
embedder = DashScopeEmbedding(
    model_name=DashScopeTextEmbeddingModels.TEXT_EMBEDDING_V2,
    text_type=DashScopeTextEmbeddingType.TEXT_TYPE_QUERY,  #指定对查询问题进行Embedding
)

# Call text Embedding
embedding = embedder.get_text_embedding("骆驼祥子这本书讲了什么?")
print(f"Dimension of embeddings: {len(embedding)}")
print(embedding[:5])

后面的章节将会继续说明如何将向量化的内容存储到向量数据库中,以及如何对向量化结果进行Retrieval。

最后

本篇文章仅带着大家认识一下LLamaindex的LLM、Prompt以及Embedding相关功能,实际上你会发现LLamaindex的能力和Langchain是非常相似的,甚至LLamaindex可以和Langchain一起使用。

后面咱们会着重研究一下基于LLamaindex搭建使用RAG增强的ChatBot,以及相关的组件能力。

相关推荐
敲上瘾25 分钟前
操作系统的理解
linux·运维·服务器·c++·大模型·操作系统·aigc
想成为高手4995 小时前
生成式AI在教育技术中的应用:变革与创新
人工智能·aigc
Guofu_Liao10 小时前
大语言模型---LoRA简介;LoRA的优势;LoRA训练步骤;总结
人工智能·语言模型·自然语言处理·矩阵·llama
ZHOU_WUYI14 小时前
3.langchain中的prompt模板 (few shot examples in chat models)
人工智能·langchain·prompt
z千鑫18 小时前
【人工智能】PyTorch、TensorFlow 和 Keras 全面解析与对比:深度学习框架的终极指南
人工智能·pytorch·深度学习·aigc·tensorflow·keras·codemoss
AI_小站19 小时前
RAG 示例:使用 langchain、Redis、llama.cpp 构建一个 kubernetes 知识库问答
人工智能·程序人生·langchain·kubernetes·llama·知识库·rag
Guofu_Liao19 小时前
Llama模型文件介绍
人工智能·llama
龙的爹233320 小时前
论文翻译 | RECITATION-AUGMENTED LANGUAGE MODELS
人工智能·语言模型·自然语言处理·prompt·gpu算力
程序员X小鹿1 天前
AI视频自动剪辑神器!点赞上万的影视剧片段,一键全自动剪辑,效率提升80%!(附保姆级教程)
aigc
Donvink1 天前
多模态大语言模型——《动手学大模型》实践教程第六章
人工智能·深度学习·语言模型·自然语言处理·llama