Ubuntu -- 几行命令使用Ollama部署本地AI大模型, 仅调用api, 快速测试api效果

需求

  • 需要在本地快速部署一个大模型, 然后使用 局域网 的其他电脑进行 api调用
  • 为了快速测试, 大模型选择了 qwen2:0.5B 进行快速测试

开始

下载安装 ollama

bash 复制代码
curl -fsSL https://ollama.com/install.sh | sh

验证安装

bash 复制代码
ollama --version

下载安装模型并运行

bash 复制代码
ollama run qwen2:0.5B

配置 api 访问

  • Ollama 默认启用端口为: 11434
  • 配置局域网其他设备 可以访问 Ollama 服务

编辑服务

bash 复制代码
sudo vim /etc/systemd/system/ollama.service

[Service] 后添加一行环境代码

bash 复制代码
Environment="OLLAMA_HOST=0.0.0.0:11434"

重启服务

bash 复制代码
systemctl daemon-reload
systemctl restart ollama

设置开机自启

bash 复制代码
systemctl enable ollama

使用局域网通过api访问

在 Windows 的 cmd 中快速测试效果

bash 复制代码
curl http://192.168.3.10:11434/api/generate -d "{\"model\": \"qwen2:0.5B\",\"prompt\": \"who are you?\",\"stream\":false}"
  • 192.168.3.10: 为你的Ollama服务器的ip
  • qwen2:0.5B: 为你刚下载的模型名称

或者使用类似的http请求工具请求

相关推荐
Juicedata41 分钟前
JuiceFS v1.3-Beta2:集成 Apache Ranger,实现更精细化的权限控制
运维·人工智能·ai
IT成长日记1 小时前
05【Linux经典命令】Linux 用户管理全面指南:从基础到高级操作
linux·运维·服务器·用户管理·命令
资讯第一线5 小时前
Windows系统工具:WinToolsPlus 之 SQL Server Suspect/质疑/置疑/可疑/单用户等 修复
运维
惊起白鸽4505 小时前
LVS负载均衡
运维·负载均衡·lvs
Sapphire~7 小时前
Linux-07 ubuntu 的 chrome 启动不了
linux·chrome·ubuntu
伤不起bb7 小时前
NoSQL 之 Redis 配置与优化
linux·运维·数据库·redis·nosql
广东数字化转型7 小时前
nginx怎么使用nginx-rtmp-module模块实现直播间功能
linux·运维·nginx
love530love7 小时前
【笔记】在 MSYS2(MINGW64)中正确安装 Rust
运维·开发语言·人工智能·windows·笔记·python·rust
啵啵学习7 小时前
Linux 里 su 和 sudo 命令这两个有什么不一样?
linux·运维·服务器·单片机·ubuntu·centos·嵌入式
半桔8 小时前
【Linux手册】冯诺依曼体系结构
linux·缓存·职场和发展·系统架构