使用llama-index连接neo4j知识图谱 达成大模型构建查询知识图谱功能

使用llama-index连接neo4j知识图谱 达成本地大模型构建查询知识图谱功能

当然!我将提供更多详细的解释,帮助您更好地理解如何使用Llama-Index连接Neo4j知识图谱,实现大模型构建和查询功能。

概述

目标

我们的目标是使用Llama-Index来连接到Neo4j,以构建和查询知识图谱。通过这个过程,我们能够将文档中的信息转化为知识图谱,并通过大语言模型进行查询。

以下参考llama-index官方实现

主要步骤

  1. 安装依赖项:我们需要安装一些Python库来支持我们的工作。
  2. 配置环境:我们需要设置一些环境变量来使用OpenAI或Azure OpenAI的API。
  3. 构建知识图谱:我们将使用Neo4j来存储和管理知识图谱。
  4. 查询知识图谱:我们将通过Llama-Index查询Neo4j中的数据。
  5. (可选)手动添加三元组:我们还可以手动添加三元组到知识图谱中。

1. 安装依赖项

首先,我们需要安装一些Python库。这些库包括Llama-Index的相关组件和Neo4j的连接库。

bash 复制代码
%pip install llama-index-llms-openai
%pip install llama-index-graph-stores-neo4j
%pip install llama-index-embeddings-openai
%pip install llama-index-llms-azure-openai
%pip install neo4j

这些库的功能如下:

  • llama-index-llms-openaillama-index-llms-azure-openai:用于连接OpenAI和Azure OpenAI的API,以获取NLP模型。
  • llama-index-graph-stores-neo4j:用于与Neo4j数据库交互。
  • llama-index-embeddings-openai:用于处理文本嵌入。
  • neo4j:Neo4j数据库的官方Python驱动程序。

2. 配置环境

为了使用OpenAI或Azure OpenAI的API,我们需要配置一些环境变量和API密钥。

配置ollama

复制代码
import os
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings, StorageContext, KnowledgeGraphIndex
from llama_index.embeddings.ollama import OllamaEmbedding
from llama_index.llms.ollama import Ollama
from llama_index.core import KnowledgeGraphIndex, SimpleDirectoryReader, StorageContext
from llama_index.graph_stores.neo4j import Neo4jGraphStore

# 设置嵌入模型
Settings.embed_model = OllamaEmbedding(model_name="znbang/bge:large-zh-v1.5-f32")

# 设置LLM模型
Settings.llm = Ollama(model="qwen:7b", request_timeout=360.0

3. 使用Neo4j构建知识图谱

准备Neo4j

我们需要配置Neo4j数据库的连接信息。

python 复制代码
username = "neo4j"
password = "your-neo4j-password"
url = "bolt://your-neo4j-url:7687"
database = "neo4j"

实例化Neo4jGraph KG索引

接下来,我们使用Llama-Index从文档中提取数据,并将其存储到Neo4j图数据库中。

python 复制代码
from llama_index.core import KnowledgeGraphIndex, SimpleDirectoryReader
from llama_index.core import StorageContext
from llama_index.graph_stores.neo4j import Neo4jGraphStore

from llama_index.llms.openai import OpenAI
from IPython.display import Markdown, display

# 加载文档数据
documents = SimpleDirectoryReader(
    "path_to_your_documents"
).load_data()

# 初始化Neo4j图存储
graph_store = Neo4jGraphStore(
    username=username,
    password=password,
    url=url,
    database=database,
)

# 创建存储上下文
storage_context = StorageContext.from_defaults(graph_store=graph_store)

# 构建知识图谱索引
index = KnowledgeGraphIndex.from_documents(
    documents,
    storage_context=storage_context,
    max_triplets_per_chunk=2,
)

4. 查询知识图谱

查询并仅发送三元组到LLM

我们可以查询知识图谱并仅发送三元组到大语言模型进行处理。

python 复制代码
query_engine = index.as_query_engine(
    include_text=False, response_mode="tree_summarize"
)

response = query_engine.query("Tell me more about Interleaf")
display(Markdown(f"<b>{response}</b>"))

查询并发送包含文本的结果到LLM

我们还可以查询知识图谱并发送包含文本的结果到大语言模型。

python 复制代码
query_engine = index.as_query_engine(
    include_text=True, response_mode="tree_summarize"
)
response = query_engine.query(
    "Tell me more about what the author worked on at Interleaf"
)
display(Markdown(f"<b>{response}</b>"))

5. 使用嵌入查询

我们还可以在构建索引时包含文本嵌入,以便在查询时使用嵌入相似度进行更准确的查询。

python 复制代码
# 清理数据集
graph_store.query(
    """
MATCH (n) DETACH DELETE n
"""
)

# 构建包含嵌入的索引
index = KnowledgeGraphIndex.from_documents(
    documents,
    storage_context=storage_context,
    max_triplets_per_chunk=2,
    include_embeddings=True,
)

query_engine = index.as_query_engine(
    include_text=True,
    response_mode="tree_summarize",
    embedding_mode="hybrid",
    similarity_top_k=5,
)

response = query_engine.query(
    "Tell me more about what the author worked on at Interleaf"
)
display(Markdown(f"<b>{response}</b>"))

6. 手动添加三元组并构建图谱(可选)

我们还可以手动向知识图谱中添加三元组。

python 复制代码
from llama_index.core.node_parser import SentenceSplitter
node_parser = SentenceSplitter()
nodes = node_parser.get_nodes_from_documents(documents)

# 初始化一个空的索引
index = KnowledgeGraphIndex.from_documents([], storage_context=storage_context)

# 手动添加三元组
node_0_tups = [
    ("author", "worked on", "writing"),
    ("author", "worked on", "programming"),
]
for tup in node_0_tups:
    index.upsert_triplet_and_node(tup, nodes[0])

node_1_tups = [
    ("Interleaf", "made software for", "creating documents"),
    ("Interleaf", "added", "scripting language"),
    ("software", "generate", "web sites"),
]
for tup in node_1_tups:
    index.upsert_triplet_and_node(tup, nodes[1])

query_engine = index.as_query_engine(
    include_text=False, response_mode="tree_summarize"
)

response = query_engine.query("Tell me more about Interleaf")
display(Markdown(f"<b>{response}</b>"))
相关推荐
fydw_7153 小时前
大语言模型RLHF训练框架全景解析:OpenRLHF、verl、LLaMA-Factory与SWIFT深度对比
语言模型·swift·llama
q_q王3 小时前
‌FunASR‌阿里开源的语音识别工具
python·大模型·llm·语音识别
木偶彡6 小时前
如何通过http访问ollama接口
大模型·ollama·deepseek
q_q王18 小时前
Ubuntu源码版comfyui的安装
大模型·文生图·comfyui·工作流·图生视频
HuggingFace21 小时前
大模型评估排障指南 | 关于可复现性
大模型·llm
AI大模型顾潇21 小时前
[特殊字符] 本地部署DeepSeek大模型:安全加固与企业级集成方案
数据库·人工智能·安全·大模型·llm·微调·llama
Coding的叶子1 天前
React Agent:从零开始构建 AI 智能体|React Flow 实战・智能体开发・低代码平台搭建
人工智能·大模型·工作流·智能体·react flow
Ultipa1 天前
回答 | 图形数据库neo4j社区版可以应用小型企业嘛?
数据库·neo4j·图数据库
modest —YBW1 天前
Ollama+OpenWebUI+docker完整版部署,附带软件下载链接,配置+中文汉化+docker源,适合内网部署,可以局域网使用
人工智能·windows·docker·语言模型·llama
青衫客361 天前
使用本地部署的 LLaMA 3 模型进行中文对话生成
大模型·llama