lobechat使用ollama搭建自己的离线聊天AI

docker安装部署lobechat

参考lobe https://github.com/lobehub/lobe-chat/blob/main/README.zh-CN.md

docker run -d -p 3210:3210 -e OPENAI_API_KEY=sk-xxxx -e ACCESS_CODE=lobe66 --name lobe-chat lobehub/lobe-chat

安装成功后 ollama设置环境变量

重启ollama服务,在cmd终端执行ollama serve

这样局域网其它设备也能访问ollama服务了

lobe模型设置中启用ollama

测试

成功!

PS:笔记本太辣鸡,内存也不够,qwen2几个G,调入内存后基本跑不动,一个hello几个token的简短提示词都得反应几分钟

相关推荐
16Miku3 小时前
Qwen3-8B vLLM 部署实践教程(AutoDL 平台)
人工智能·ai·autodl·vllm·部署大模型·qwen3-8b
星月昭铭4 小时前
Spring Boot写一个/v1/chat/completions接口给Cherry Studio流式调用
java·spring boot·后端·ai
全栈技术负责人4 小时前
Ling框架:针对AIGC工作流中JSON数据流式处理的解决方案
前端·ai
itachi-uchiha4 小时前
通识性AI知识点:AI学习框架(从ML到LLM的核心概念)
ai
哥布林学者4 小时前
吴恩达深度学习课程四:计算机视觉 第三周:检测算法 (四)YOLO 的完整传播过程
深度学习·ai
itachi-uchiha5 小时前
通识性AI知识点:Token和Context
ai
陈橘又青7 小时前
vLLM-Ascend推理部署与性能调优深度实战指南:架构解析、环境搭建与核心配置
人工智能·后端·ai·架构·restful·数据·vllm
小北方城市网7 小时前
第7课:Vue 3应用性能优化与进阶实战——让你的应用更快、更流畅
前端·javascript·vue.js·ai·性能优化·正则表达式·json
慢慢慢时光8 小时前
claude code使用
ai