Ubuntu -- 几行命令使用Ollama部署本地AI大模型, 仅调用api, 快速测试api效果

需求

  • 需要在本地快速部署一个大模型, 然后使用 局域网 的其他电脑进行 api调用
  • 为了快速测试, 大模型选择了 qwen2:0.5B 进行快速测试

开始

下载安装 ollama

bash 复制代码
curl -fsSL https://ollama.com/install.sh | sh

验证安装

bash 复制代码
ollama --version

下载安装模型并运行

bash 复制代码
ollama run qwen2:0.5B

配置 api 访问

  • Ollama 默认启用端口为: 11434
  • 配置局域网其他设备 可以访问 Ollama 服务

编辑服务

bash 复制代码
sudo vim /etc/systemd/system/ollama.service

[Service] 后添加一行环境代码

bash 复制代码
Environment="OLLAMA_HOST=0.0.0.0:11434"

重启服务

bash 复制代码
systemctl daemon-reload
systemctl restart ollama

设置开机自启

bash 复制代码
systemctl enable ollama

使用局域网通过api访问

在 Windows 的 cmd 中快速测试效果

bash 复制代码
curl http://192.168.3.10:11434/api/generate -d "{\"model\": \"qwen2:0.5B\",\"prompt\": \"who are you?\",\"stream\":false}"
  • 192.168.3.10: 为你的Ollama服务器的ip
  • qwen2:0.5B: 为你刚下载的模型名称

或者使用类似的http请求工具请求

相关推荐
骇客野人9 小时前
【软考备考】 高并发场景如何做负载均衡知识点四
运维·负载均衡
deng-c-f9 小时前
Linux C/C++ 学习日记(22):Reactor模式(二):实现简易的webserver(响应http请求)
linux·c语言·网络编程·reactor·http_server
BTU_YC9 小时前
CentOS 7 虚拟IP配置指南:使用传统network-scripts实现高可用
linux·tcp/ip·centos
陌路209 小时前
LINUX14 进程间的通信 - 管道
linux·网络
大聪明-PLUS9 小时前
从头开始为 ARM 创建 Ubuntu 映像
linux·嵌入式·arm·smarc
chenzhou__9 小时前
MYSQL学习笔记(个人)(第十五天)
linux·数据库·笔记·学习·mysql
序属秋秋秋10 小时前
《Linux系统编程之入门基础》【Linux基础 理论+命令】(上)
linux·运维·服务器·ubuntu·centos·命令模式
知白守黑26712 小时前
docker资源限制
运维·docker·容器
霍格沃兹测试开发学社测试人社区12 小时前
新手指南:通过 Playwright MCP Server 为 AI Agent 实现浏览器自动化能力
运维·人工智能·自动化
ximy133513 小时前
AI服务器工作之服务器的种类分类
运维·服务器