Ubuntu -- 几行命令使用Ollama部署本地AI大模型, 仅调用api, 快速测试api效果

需求

  • 需要在本地快速部署一个大模型, 然后使用 局域网 的其他电脑进行 api调用
  • 为了快速测试, 大模型选择了 qwen2:0.5B 进行快速测试

开始

下载安装 ollama

bash 复制代码
curl -fsSL https://ollama.com/install.sh | sh

验证安装

bash 复制代码
ollama --version

下载安装模型并运行

bash 复制代码
ollama run qwen2:0.5B

配置 api 访问

  • Ollama 默认启用端口为: 11434
  • 配置局域网其他设备 可以访问 Ollama 服务

编辑服务

bash 复制代码
sudo vim /etc/systemd/system/ollama.service

[Service] 后添加一行环境代码

bash 复制代码
Environment="OLLAMA_HOST=0.0.0.0:11434"

重启服务

bash 复制代码
systemctl daemon-reload
systemctl restart ollama

设置开机自启

bash 复制代码
systemctl enable ollama

使用局域网通过api访问

在 Windows 的 cmd 中快速测试效果

bash 复制代码
curl http://192.168.3.10:11434/api/generate -d "{\"model\": \"qwen2:0.5B\",\"prompt\": \"who are you?\",\"stream\":false}"
  • 192.168.3.10: 为你的Ollama服务器的ip
  • qwen2:0.5B: 为你刚下载的模型名称

或者使用类似的http请求工具请求

相关推荐
桥边驿语人5 分钟前
使用Docker Desktop进行本地打包和推送
运维·docker·容器·本地打包
头发尚存的猿小二41 分钟前
Linux--文件系统
linux·运维·服务器
易保山1 小时前
MIT6.S081 - Lab7 Multithreading(进程调度)
linux·操作系统·c
杨凯凡1 小时前
Linux入门指南:从零开始探索开源世界
linux
是程序喵呀1 小时前
软考《信息系统运行管理员》- 7.1 物联网运维
运维·物联网·软考
卑微的小鬼2 小时前
fabric test-network启动
运维·fabric
sondx2 小时前
mac安装浏览器闪退处理
运维·docker·容器
Liuzhengyue_3 小时前
Linux shell脚本编程
linux·运维·服务器
babytiger3 小时前
在 VMware 中为 Ubuntu 24.04 虚拟机设置共享文件夹后,在虚拟机中未能看到共享的内容
linux·运维·ubuntu
回眸&啤酒鸭3 小时前
【回眸】Linux 内核 (十六) 之 多线程编程 下
linux·物联网