基于大模型和RAG技术实现的开源项目

基于大模型和RAG技术实现的开源项目

为解决大模型的不足,使用RAG技术增强大模型生成内容的针对性和可读性能力,有很多不错的开源项目。例如下面的项目。

1 ragflow

优点:可以对文档和知识库进行管理,构建不同的知识库,支持Ollama和API-key。

数据库使用的是ElasticSearch、MySQL和minio。

复制代码
# 官网
https://ragflow.io/

# Github
https://github.com/infiniflow/ragflow

2 AnythingLLM

优点:具有客户端便于本地管理数据,支持Ollama和API-key;缺点:对本地的电脑配置要求较高。

数据库默认使用的是lancedb。

复制代码
# 官网
https://useanything.com/

# Github
https://github.com/Mintplex-Labs/anything-llm

3 fastgpt

优点:定位知识库搜索和生成,可以快速构建平台,提供了一键部署。安装过程可能较为费劲。

数据库使用的是MongoDB。

复制代码
# 官网
https://fastgpt.in/

# Github
https://github.com/labring/FastGPT

4 QAnything

优点:使用BGE向量引擎完成文本向量化,提供可视化和API,中文支持较好。

数据库使用的是milvus、MySQL和minio。

复制代码
# 官网
https://qanything.ai/

# Github
https://github.com/netease-youdao/QAnything

5 MaxKB

优点:支持Ollama和API-key,支持用户管理等,使用浏览器完成项目;安装最简单的项目。

数据库使用的是PostgreSQL和PGVector(PGVector 是一个基于 PostgreSQL 的扩展插件,为用户提供了一套强大的向量存储和查询的功能)

复制代码
# Github
https://github.com/1Panel-dev/MaxKB
相关推荐
小超同学你好9 小时前
Langgraph 18. Skill 四种形态 —— Inline / File-based / External / Meta(含代码示例)
人工智能·语言模型·langchain
Tadas-Gao9 小时前
Mem0分层记忆系统:大语言模型长期记忆的架构革命与实现范式
人工智能·语言模型·自然语言处理·架构·大模型·llm·transformer
吴佳浩 Alben9 小时前
GPU 生产环境实践:硬件拓扑、显存管理与完整运维体系
运维·人工智能·pytorch·语言模型·transformer·vllm
lifallen14 小时前
从零推导多 Agent 协作网络 (Flow Agent)
人工智能·语言模型
KG_LLM图谱增强大模型15 小时前
MedHELM:真实临床医疗任务大语言模型的整体评估框架
人工智能·语言模型·自然语言处理
小超同学你好16 小时前
Langgraph 17. Skills 三级加载与 Token 优化(含代码示例)
人工智能·语言模型·langchain
吴佳浩 Alben16 小时前
GPU 编号错乱踩坑指南:PyTorch cuda 编号与 nvidia-smi 不一致
人工智能·pytorch·python·深度学习·神经网络·语言模型·自然语言处理
吴佳浩 Alben16 小时前
CUDA_VISIBLE_DEVICES、多进程与容器化陷阱
人工智能·pytorch·语言模型·transformer
大模型任我行17 小时前
腾讯:揭示评估幻觉并构建知识驱动新范式
人工智能·语言模型·自然语言处理·论文笔记
FserSuN20 小时前
论文学习《ReAct: 在大语言模型中协同推理与行动》
语言模型