修仙么朋友-从0到1构建个人修仙百科

ChatGPT构建修仙百科

ChatGPT非常适合进行日常的通用问答,但在需要领域特定知识时存在一些不足。此外,它会编造答案来填补其知识空白,并且从不引用其信息来源,因此无法真正被信任。

本应用尝试使用网络修仙小说来构建修仙领域的修仙百科。

使用的技术:

  • Next.js (React框架)
  • MemFire (国内版Supabase,使用他们的pgvector实现作为向量数据库)
  • OpenAI API (用于生成嵌入和聊天完成)
  • TailwindCSS (用于样式)

后续工作:

  • 使用MemFire 云函数构建本应用中的api接口
  • 使用MemFire 静态托管部署本应用

功能概述

创建和存储嵌入:

  • 上传修仙小说,转换为纯文本并分割成1000个字符的文档
  • 使用OpenAI的嵌入API,利用"text-embedding-ada-002"模型为每个文档生成嵌入
  • 将嵌入向量存储在Supabase的postgres表中,使用pgvector; 表包含三列: 文档文本、源URL以及从OpenAI API返回的嵌入向量。

响应查询:

  • 从用户提示生成单个嵌入向量
  • 使用该嵌入向量对向量数据库进行相似性搜索
  • 使用相似性搜索的结果构建GPT-3.5/GPT-4的提示
  • 然后将GPT的响应流式传输给用户。

修仙体验

  1. 上传小说

  2. 修仙问答

体验地址

入门指南

以下设置指南假定您至少对使用React和Next.js开发Web应用程序有基本的了解。熟悉OpenAI API和Supabase会对使事情正常运行有所帮助,但不是必需的。

设置Supabase

  1. 登录MemFire 创建应用

  2. 启用Vector扩展 首先,我们将启用Vector扩展。可以在应用的SQL执行器中运行以下命令完成此操作:

sql 复制代码
create extension vector;
  1. 接下来,让我们创建一个表来存储我们的文档及其嵌入。

转到SQL编辑器并运行以下查询:

sql 复制代码
create table documents (
  id bigserial primary key,
  content text,
  url text,
  embedding vector (1536)
);
  1. 最后,我们将创建一个用于执行相似性搜索的函数。转到SQL编辑器并运行以下查询:
sql 复制代码
create or replace function match_documents (
  query_embedding vector(1536),
  similarity_threshold float,
  match_count int
)
returns table (
  id bigint,
  content text,
  url text,
  similarity float
)
language plpgsql
as $$
begin
  return query
  select
    documents.id,
    documents.content,
    documents.url,
    1 - (documents.embedding <=> query_embedding) as similarity
  from documents
  where 1 - (documents.embedding <=> query_embedding) > similarity_threshold
  order by documents.embedding <=> query_embedding
  limit match_count;
end;
$$;

设置本地环境

  • 安装依赖项
bash 复制代码
npm install
  • 在根目录中创建一个名为.env.local的文件以存储环境变量:
bash 复制代码
cp .env.local.example .env.local
  • 打开.env.local文件,添加您的Supabase项目URL和API密钥。
  • 将您的OpenAI API密钥添加到.env.local文件。您可以在OpenAI Web门户的API Keys下找到它。API密钥应存储在OPENAI_API_KEY变量中。
  • 可选\]提供`OPEAI_PROXY`环境变量以启用您自定义的OpenAI API代理。将其设置为 `""` 以直接调用官方API。

bash 复制代码
npm run dev

github地址

github.com/TiannV/ai-k...

相关推荐
AAA阿giao2 小时前
赋予大模型“记忆”:深度解析 LangChain 中 LLM 的上下文记忆实现
javascript·langchain·llm
董厂长3 小时前
温度设为 0 仍然不完全确定:LLM 推理非确定性从哪来、怎么测、如何缓解
人工智能·llm·agent
沛沛老爹4 小时前
Advanced-RAG原理:RAG-Fusion 检索增强生成的多查询融合实战
langchain·llm·agent·fusion·rag·advanced·web转型
阿正的梦工坊4 小时前
论文阅读WebDancer: Towards Autonomous Information Seeking Agency
论文阅读·人工智能·深度学习·机器学习·llm
带刺的坐椅13 小时前
迈向 MCP 集群化:Solon AI (支持 Java8+)在解决 MCP 服务可扩展性上的探索与实践
java·ai·llm·solon·mcp
xhxxx14 小时前
你的 AI 为什么总答非所问?缺的不是智商,是“记忆系统”
前端·langchain·llm
智泊AI14 小时前
一文看懂AI大模型的核心模块:基于强化学习的偏好对齐原理及其应用
llm
CoderJia程序员甲15 小时前
GitHub 热榜项目 - 日榜(2025-12-24)
ai·开源·llm·github
亚里随笔16 小时前
突破性框架TRAPO:统一监督微调与强化学习的新范式,显著提升大语言模型推理能力
人工智能·深度学习·机器学习·语言模型·llm·rlhf
www_stdio18 小时前
让大语言模型拥有“记忆”:多轮对话与 LangChain 实践指南
前端·langchain·llm