Ubuntu -- 几行命令使用Ollama部署本地AI大模型, 仅调用api, 快速测试api效果

需求

  • 需要在本地快速部署一个大模型, 然后使用 局域网 的其他电脑进行 api调用
  • 为了快速测试, 大模型选择了 qwen2:0.5B 进行快速测试

开始

下载安装 ollama

bash 复制代码
curl -fsSL https://ollama.com/install.sh | sh

验证安装

bash 复制代码
ollama --version

下载安装模型并运行

bash 复制代码
ollama run qwen2:0.5B

配置 api 访问

  • Ollama 默认启用端口为: 11434
  • 配置局域网其他设备 可以访问 Ollama 服务

编辑服务

bash 复制代码
sudo vim /etc/systemd/system/ollama.service

[Service] 后添加一行环境代码

bash 复制代码
Environment="OLLAMA_HOST=0.0.0.0:11434"

重启服务

bash 复制代码
systemctl daemon-reload
systemctl restart ollama

设置开机自启

bash 复制代码
systemctl enable ollama

使用局域网通过api访问

在 Windows 的 cmd 中快速测试效果

bash 复制代码
curl http://192.168.3.10:11434/api/generate -d "{\"model\": \"qwen2:0.5B\",\"prompt\": \"who are you?\",\"stream\":false}"
  • 192.168.3.10: 为你的Ollama服务器的ip
  • qwen2:0.5B: 为你刚下载的模型名称

或者使用类似的http请求工具请求

相关推荐
t198751283 小时前
在Ubuntu 22.04系统上安装libimobiledevice
linux·运维·ubuntu
skywalk81633 小时前
linux安装Code Server 以便Comate IDE和CodeBuddy等都可以远程连上来
linux·运维·服务器·vscode·comate
@游子4 小时前
内网渗透笔记-Day5
运维·服务器
晚风吹人醒.4 小时前
缓存中间件Redis安装及功能演示、企业案例
linux·数据库·redis·ubuntu·缓存·中间件
记得记得就1515 小时前
【Nginx 性能优化与防盗链】
运维·nginx·性能优化
Yawesh_best5 小时前
告别系统壁垒!WSL+cpolar 让跨平台开发效率翻倍
运维·服务器·数据库·笔记·web安全
roman_日积跬步-终至千里5 小时前
【Docker】Docker Stop 后到底发生了什么?——从信号机制到优雅停机
运维·docker·容器
喵手5 小时前
云端智变:基于 DevUI 与 MateChat 打造下一代云原生智能运维中台实战教学!
运维·云原生·devui·matechat
Hard but lovely5 小时前
linux: pthread库的使用和理解
linux
小五传输5 小时前
常用的文件摆渡系统:让数据安全高效跨越网络界限
大数据·运维·安全