Perplexica是一个开源的人工智能搜索工具,也可以说是一款人工智能搜索引擎,它深入互联网以找到答案。受Perplexity AI启发,它是一个开源选择,不仅可以搜索网络,还能理解您的问题。它使用先进的机器学习算法,如相似性搜索和嵌入式技术,以精细化结果,并提供附有来源的清晰答案。
利用SearxNG保持最新和完全开源,Perplexica确保您始终获取最新的信息,而不会损害您的隐私。
特点
- 本地LLMs:您可以利用Ollama使用本地LLMs,例如Llama3和Mixtral。
- 两种主要模式:
协作模式:(正在开发中)通过生成不同的查询来提升搜索效果,以找到更相关的互联网来源。与SearxNG仅使用上下文不同,它访问顶部匹配项并尝试直接从页面中找到与用户查询相关的来源。
**普通模式:**处理您的查询并执行网络搜索。
- 专注模式:用于更好地回答特定类型问题的特殊模式。Perplexica目前有
6种专注模式:
**全模式:**搜索整个网络以找到最佳结果。
**写作助手模式:**适用于不需要搜索网络的写作任务。
**学术搜索模式:**找到文章和论文,非常适合学术研究。
**YouTube搜索模式:**根据搜索查询找到YouTube视频。
**Wolfram Alpha搜索模式:**使用Wolfram Alpha回答需要计算或数据分析的查询。
**Reddit搜索模式:**在Reddit上搜索与查询相关的讨论和观点。
- 当前信息:一些搜索工具可能会提供过时的信息,因为它们使用爬行机器人的数据并将其转换为嵌入式并存储在索引中。与它们不同,Perplexica使用SearxNG,一个元搜索引擎来获取结果并重新排名,从中获取最相关的来源,确保您始终获取最新的信息,而无需进行每日数据更新。
- 它还有许多其他功能,如图像和视频搜索。一些计划中的功能在即将推出的功能中提到。
安装
安装Perplexica主要有两种方式 - 使用Docker,不使用Docker。强烈推荐使用Docker。
使用Docker开始(推荐)
1.确保在您的系统上安装并运行了Docker。
2.克隆Perplexica存储库:
git clone https://github.com/ItzCrazyKns/Perplexica.git
3.克隆后,导航到包含项目文件的目录。
4.将sample.config.toml文件重命名为config.toml。对于Docker设置,您只需要填写以下字段:
CHAT_MODEL:要使用的LLM的名称。比如 llama3:latest(使用Ollama),gpt-3.5-turbo(使用OpenAI),等等。
CHAT_MODEL_PROVIDER:聊天模型提供者,可以是openai或ollama。根据您使用的提供者,您需要填写以下字段:
OPENAI:您的OpenAI API密钥。如果您希望使用OpenAI的模型,则需要填写此项。
OLLAMA:您的Ollama API URL。您应该输入为http://host.docker.internal:PORT_NUMBER。如果您将Ollama安装在端口11434上,请使用http://host.docker.internal:11434。对于其他端口,请相应调整。如果您希望使用Ollama的模型而不是OpenAI的模型,则需要填写此项。
注意:您可以在运行Perplexica后更改这些内容,并且还可以从设置页面中使用不同的模型。
SIMILARITY_MEASURE:要使用的相似度度量(默认情况下已填写;如果您不确定,请保留原样)。
5.确保您位于包含docker-compose.yaml文件的目录中,并执行:
docker compose up -d
6.等待几分钟,直到设置完成。您可以在Web浏览器中通过http://localhost:3000访问Perplexica。
注意:在构建容器后,您可以直接从Docker启动Perplexica,无需打开终端。
非Docker安装
对于不使用Docker的设置:
- 按照克隆存储库和将sample.config.toml文件重命名为根目录下的config.toml的初始步骤。您需要在此文件中填写所有字段。
- 此外,请将ui文件夹中的.env.example文件重命名为.env并完成所有字段。
- 非Docker设置需要手动配置后端和前端。
注意:建议使用Docker,因为它简化了设置过程,特别是管理环境变量和依赖项。
高性价比GPU资源:https://www.ucloud.cn/site/active/gpu.html?ytag=gpu_wenzhang_0429_toutiao