AI搜索引擎Perplexica的本地部署(之二)Perplexica的非docker安装

Perplex 是一个开源的AI 驱动的搜索引擎,可以使用 Grok 和 Open AI 等模型在计算机上本地安装和运行。它为学术研究、写作、YouTube 和 Reddit 提供了一系列搜索功能。用户可以通过选择不同的模型、设置本地嵌入模型和探索各种搜索选项来定制他们的体验。该工具演示了搜索 AI 新闻、学术论文和 YouTube 视频,提供相关信息并根据搜索查询生成响应。

接下来我们开始安装Perplexica

一:硬件配置

服务器配置:ubuntu22.04,2C8G。

安装位置:/app/Perplexica

安装方式:none-docker方式

二:环境准备

1、安装nodejs

复制代码
#设置运行环境
sudo apt-get install python3 g++ make python3-pip

#安装nvm
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.0/install.sh | bash

#使生效
source ~/.bashrc

#安装nodejs
nvm install 18

注:国内镜像源设置

复制代码
npm config set registry https://registry.npmmirror.com

2、安装ubuntu的图形界面

目前Perplexica只支持本机浏览,不支持共享浏览器使用。

复制代码
sudo apt install gnome-panel gnome-settings-daemon metacity nautilus gnome-terminal ubuntu-desktop

3、设置默认图形界面启动

复制代码
sudo systemctl set-default graphical.target

4、安装Chrome浏览器(假如需要)

复制代码
sudo apt install chromium-browser

三:安装Perplexica后端

1、克隆代码库

复制代码
git clone https://github.com/ItzCrazyKns/Perplexica.git

2、设置后端

复制代码
#进入代码目录
cd /app/Perplexica/

#生成配置文件
cp sample.config.toml config.toml

修改config.toml

复制代码
[GENERAL]
PORT = 3001 # Port to run the server on
SIMILARITY_MEASURE = "cosine" # "cosine" or "dot"

[API_KEYS]
OPENAI = "" # OpenAI API key - sk-1234567890abcdef1234567890abcdef
GROQ = "" # Groq API key - gsk_1234567890abcdef1234567890abcdef
ANTHROPIC = "" # Anthropic API key - sk-ant-1234567890abcdef1234567890abcdef

[API_ENDPOINTS]
SEARXNG = "http://localhost:32768" # SearxNG API URL
OLLAMA = "" # Ollama API URL - http://host.docker.internal:11434

其中:

SEARXNG地址即为我们上一章安装的searxng的地址

OLLAMA地址即为实际ollama访问地址,比如http://IP:11434

因为我们没有使用docker安装,这里直接写真实的ollama地址。

3、编译代码

复制代码
npm i
npm run build

4、运行后端

复制代码
#运行后端
npm run start

四:安装Perplexica前端

1、设置前端配置文件

复制代码
#设置前端配置文件
cd /app/Perplexica/ui/
cp .env.example .env

前端.env文件无需修改

复制代码
NEXT_PUBLIC_WS_URL=ws://localhost:3001
NEXT_PUBLIC_API_URL=http://localhost:3001/api

无需修改3001端口

2、编译代码:

复制代码
#编译前端代码
npm i 
npm run build 

如果在编译过程报错,留意报错内容,绝大部分原因是网络造成的,可以多运行几次。 强烈建议改用国内镜像源,以减少出错。

3、运行前端

复制代码
#运行前端
npm run start 

五:运行

运行前,请确保前后端都已运行起来。然后在浏览器里打开。

http://local-ip:3000

注意下面的这些资源并不是所有都可以访问的,小伙伴们可以自己每一个都试试。

模型设置

可以选择ollama里面你pull下来的相关模型。 从第三方计算机,打开这个浏览器,可以看不到哦,如下图:

这个并不是问题,问题是当前该版本不支持共享访问,只能从本机访问。

相关推荐
草莓熊Lotso26 分钟前
Linux 文件描述符与重定向实战:从原理到 minishell 实现
android·linux·运维·服务器·数据库·c++·人工智能
Coder_Boy_2 小时前
技术发展的核心规律是「加法打底,减法优化,重构平衡」
人工智能·spring boot·spring·重构
会飞的老朱4 小时前
医药集团数智化转型,智能综合管理平台激活集团管理新效能
大数据·人工智能·oa协同办公
聆风吟º5 小时前
CANN runtime 实战指南:异构计算场景中运行时组件的部署、调优与扩展技巧
人工智能·神经网络·cann·异构计算
Codebee7 小时前
能力中心 (Agent SkillCenter):开启AI技能管理新时代
人工智能
聆风吟º8 小时前
CANN runtime 全链路拆解:AI 异构计算运行时的任务管理与功能适配技术路径
人工智能·深度学习·神经网络·cann
uesowys8 小时前
Apache Spark算法开发指导-One-vs-Rest classifier
人工智能·算法·spark
AI_56788 小时前
AWS EC2新手入门:6步带你从零启动实例
大数据·数据库·人工智能·机器学习·aws
User_芊芊君子8 小时前
CANN大模型推理加速引擎ascend-transformer-boost深度解析:毫秒级响应的Transformer优化方案
人工智能·深度学习·transformer
智驱力人工智能9 小时前
小区高空抛物AI实时预警方案 筑牢社区头顶安全的实践 高空抛物检测 高空抛物监控安装教程 高空抛物误报率优化方案 高空抛物监控案例分享
人工智能·深度学习·opencv·算法·安全·yolo·边缘计算