FastWiki一分钟本地离线部署本地企业级人工智能客服
介绍
FastWiki是一个开源的企业级人工智能客服系统,它使用了一系列先进的技术和框架来支持其功能。
技术栈
- 前端框架:React + LobeUI + TypeScript
- 后端框架:MasaFramework 基于 .NET 8
- 动态函数:基于JavaScript V8引擎实现
- 向量搜索引擎:使用PostgreSQL的向量插件,优化搜索性能 | 简单版本支持磁盘向量
- 深度学习与NLP:微软Semantic Kernel,提升搜索的语义理解能力
- 许可证:Apache-2.0,鼓励社区贡献和使用
特点
- 智能搜索:借助Semantic Kernel的深度学习和自然语言处理技术,能够理解复杂查询,提供精准的搜索结果。
- 高性能:通过PostgreSQL的向量插件优化向量搜索性能,确保即使在大数据量下也能快速响应。
- 现代化前端:使用React + LobeUI前端框架,提供响应式设计和用户友好的界面。
- 强大的后端:基于最新的.NET 8和MasaFramework,确保了代码的高效性和可维护性。
- 开源和社区驱动:采用Apache-2.0许可证,鼓励开发者和企业使用和贡献。
- 动态JavaScript函数:提供Monaco智能代码提示,使开发更方便。
- 强大的QA问答拆分模式:让知识库回复更智能。
FastWiki的部署过程已经被极大地简化,只需运行FastWiki服务即可,无需数据库。
对于FastWiki
,我们不段的更新和优化,现在的版本越来越稳定,功能也更丰富,目前我们又简化了FastWiki
的部署成本, 您无需数据库即可部署,只需要运行我们的FastWiki
服务!
创建Docker指令
下面我们创建我们的FastWiki
的指令,只需要一行代码即可运行。
sh
docker run -d --name fast-wiki-service --user root --restart always \
-p 8080:8080 \
-v $(pwd)/wwwroot/uploads:/app/wwwroot/uploads \
-v $(pwd)/data:/app/data \
-e OPENAI_CHAT_ENDPOINT=https://api.token-ai.cn/ \
-e OPENAI_CHAT_EMBEDDING_ENDPOINT=https://api.token-ai.cn/ \
-e OPENAI_CHAT_TOKEN=您的TokenKey \
-e ASPNETCORE_ENVIRONMENT=Development \
registry.cn-shenzhen.aliyuncs.com/fast-wiki/fast-wiki-service
在这里我们需要注意俩个点,第一个您的AI模型地址需要修改,您的AIToken
也需要修改,确保修改完成,替换参数以后再执行。
运行完成以后我们访问一下容器的端口 如果你是再本地运行的则访问 localhost:8080
点击立即开始
登录系统,系统默认账号:admin 默认密码 Aa123456
登录成功后还会返回页面,再次点击立即开始,点击新增,然后输入您创建的应用名称。
然后点击左边菜单的知识库,然后上传头像,设置我们的模型 (这个模型是用于QA问答解析的时候用到的),设置我们的嵌入模型(嵌入模型是我们用于量化文档的模型)创建完成以后进入知识库,然后点击上传文件。
点击上传文件,
然后吧我们的FastWiki上传上去:
然后点击提交数据:
然后返回到知识库详情:我们看到我们的文档已经量化完成
然后回到应用中然后绑定一下我们刚刚创建的知识库,然后点击保存即可。然后点击左边菜单的对话
提问内容:FastWiki有哪些技术栈?回复效果;
这些内容基本上就是我们的文档的内容!
知识库非常的详细的回复出来了。如果FastWiki对你有帮助的话帮忙再GitHub给一个Star,就是给我们最大的支持!!!