[linux本地部署ai 未完成]

ollama

Ollama 是一款本地大模型运行框架,旨在帮助用户在无需云服务的情况下,利用个人设备部署并运行各种大模型。相比于依赖云计算资源,Ollama 能够直接在本地实现大模型推理,适合那些对数据隐私要求较高的场景,如医疗、金融或企业内部数据处理。

官网

点击download后

复制下面命令 终端执行即可

安装完成后我们访问127.0.0.1:11434

此时他已经运行

命令行输入ollama 会看到参数和用法

ollama list 查看本地安装的大模型

现在需要选择模型了我这里选择的是

直接复制蓝色的代码

完成

ollama list 查看模型

ollama run 模型名字

ollama rm 删除模型

docker

安装

开机自启动 和启动docker

创建docker组 并将当前用户加入docker组

重启一下

MaxKB

MaxKB - 基于大语言模型和 RAG 的知识库问答系统 - 官网

运行在线部署

完成后就访问8080端口

账号密码admin MaxKB@123..

进去后需要修改密码

首先需要

可以直接复制ollama list中name字段

相关推荐
冰橙子id15 分钟前
linux——磁盘和文件系统管理
linux·运维·服务器
咕噜企业签名分发-淼淼15 分钟前
应用app的服务器如何增加高并发
运维·服务器
b***251137 分钟前
18650锂电池组点焊机:高效组装锂电池的关键工具|比斯特自动化
运维·自动化
leagsoft_100342 分钟前
联软NSPM自动化策略管理 助力上交所加速国产化替代提升运维效率
运维·网络·自动化
无聊的小坏坏1 小时前
环境变量深度解析:从配置到内核的全链路指南
linux·bash
才鲸嵌入式1 小时前
01 Ubuntu20.04下编译QEMU8.2.4,交叉编译32位ARM程序,运行ARM程序的方法
linux·c语言·单片机·嵌入式·arm·qemu·虚拟机
Mikhail_G1 小时前
Python应用函数调用(二)
大数据·运维·开发语言·python·数据分析
来鸟 鸣间2 小时前
vscode 连接远程服务器
服务器·ide·vscode
伤不起bb3 小时前
Kafka 消息队列
linux·运维·分布式·kafka
Hello.Reader3 小时前
Git 安装全攻略Linux、macOS、Windows 与源码编译
linux·git·macos