修仙么朋友-从0到1构建个人修仙百科

ChatGPT构建修仙百科

ChatGPT非常适合进行日常的通用问答,但在需要领域特定知识时存在一些不足。此外,它会编造答案来填补其知识空白,并且从不引用其信息来源,因此无法真正被信任。

本应用尝试使用网络修仙小说来构建修仙领域的修仙百科。

使用的技术:

  • Next.js (React框架)
  • MemFire (国内版Supabase,使用他们的pgvector实现作为向量数据库)
  • OpenAI API (用于生成嵌入和聊天完成)
  • TailwindCSS (用于样式)

后续工作:

  • 使用MemFire 云函数构建本应用中的api接口
  • 使用MemFire 静态托管部署本应用

功能概述

创建和存储嵌入:

  • 上传修仙小说,转换为纯文本并分割成1000个字符的文档
  • 使用OpenAI的嵌入API,利用"text-embedding-ada-002"模型为每个文档生成嵌入
  • 将嵌入向量存储在Supabase的postgres表中,使用pgvector; 表包含三列: 文档文本、源URL以及从OpenAI API返回的嵌入向量。

响应查询:

  • 从用户提示生成单个嵌入向量
  • 使用该嵌入向量对向量数据库进行相似性搜索
  • 使用相似性搜索的结果构建GPT-3.5/GPT-4的提示
  • 然后将GPT的响应流式传输给用户。

修仙体验

  1. 上传小说

  2. 修仙问答

体验地址

入门指南

以下设置指南假定您至少对使用React和Next.js开发Web应用程序有基本的了解。熟悉OpenAI API和Supabase会对使事情正常运行有所帮助,但不是必需的。

设置Supabase

  1. 登录MemFire 创建应用

  2. 启用Vector扩展 首先,我们将启用Vector扩展。可以在应用的SQL执行器中运行以下命令完成此操作:

sql 复制代码
create extension vector;
  1. 接下来,让我们创建一个表来存储我们的文档及其嵌入。

转到SQL编辑器并运行以下查询:

sql 复制代码
create table documents (
  id bigserial primary key,
  content text,
  url text,
  embedding vector (1536)
);
  1. 最后,我们将创建一个用于执行相似性搜索的函数。转到SQL编辑器并运行以下查询:
sql 复制代码
create or replace function match_documents (
  query_embedding vector(1536),
  similarity_threshold float,
  match_count int
)
returns table (
  id bigint,
  content text,
  url text,
  similarity float
)
language plpgsql
as $$
begin
  return query
  select
    documents.id,
    documents.content,
    documents.url,
    1 - (documents.embedding <=> query_embedding) as similarity
  from documents
  where 1 - (documents.embedding <=> query_embedding) > similarity_threshold
  order by documents.embedding <=> query_embedding
  limit match_count;
end;
$$;

设置本地环境

  • 安装依赖项
bash 复制代码
npm install
  • 在根目录中创建一个名为.env.local的文件以存储环境变量:
bash 复制代码
cp .env.local.example .env.local
  • 打开.env.local文件,添加您的Supabase项目URL和API密钥。
  • 将您的OpenAI API密钥添加到.env.local文件。您可以在OpenAI Web门户的API Keys下找到它。API密钥应存储在OPENAI_API_KEY变量中。
  • 可选\]提供`OPEAI_PROXY`环境变量以启用您自定义的OpenAI API代理。将其设置为 `""` 以直接调用官方API。

bash 复制代码
npm run dev

github地址

github.com/TiannV/ai-k...

相关推荐
大隐隐于野18 小时前
从零开始理解和编写LLM中的KV缓存
java·缓存·llm
智泊AI20 小时前
大语言模型如何微调(Fine-tuning)?
llm
大模型教程20 小时前
2张4090本地微调万亿参数模型!KTransformers上线模型微调功能,使用指南来了
程序员·llm·agent
大模型教程20 小时前
快速上手Qwen Code:本地部署与环境配置全攻略
程序员·llm·agent
离开地球表面_9921 小时前
AIGC时代的必备技能--Prompt工程
llm·aigc
亚里随笔1 天前
突破智能体训练瓶颈:DreamGym如何通过经验合成实现可扩展的强化学习?
人工智能·语言模型·自然语言处理·llm·agentic
AI大模型1 天前
本地部署vLLM+Qwen3:高性能大模型推理引擎,比Ollama强在哪?
程序员·llm·agent
在未来等你1 天前
AI Agent设计模式 Day 5:Reflexion模式:自我反思与持续改进
设计模式·llm·react·ai agent·plan-and-execute
智泊AI2 天前
为什么需要垂直领域的SFT微调?垂直领域SFT微调怎么做?
llm