解决本地连接服务器ollama的错误

1. 服务器 ollama 安装

bash 复制代码
$ curl -fsSL https://ollama.com/install.sh | sh
>>> Cleaning up old version at /usr/local/lib/ollama
>>> Installing ollama to /usr/local
>>> Downloading Linux amd64 bundle
######################################################################## 100.0%
>>> Adding ollama user to render group...
>>> Adding ollama user to video group...
>>> Adding current user to ollama group...
>>> Creating ollama systemd service...
>>> Enabling and starting ollama service...
>>> The Ollama API is now available at 127.0.0.1:11434.
>>> Install complete. Run "ollama" from the command line.

2. 运行 ollama

bash 复制代码
$ ollama run deepseek-r1:1.5b
>>> /bye

多行输入

对于多行输入,可以使用 """ 包裹文本:

bash 复制代码
>>> """Hello,
... world!
... """

查看下载的模型

bash 复制代码
$ ollama list
NAME                ID              SIZE      MODIFIED    
deepseek-r1:1.5b    e0979632db5a    1.1 GB    2 hours ago

ollama create 用于从 Modelfile 创建模型

bash 复制代码
$ ollama create mymodel -f ./Modelfile

删除模型

bash 复制代码
$ ollama rm deepseek-r1:1.5b

复制模型

bash 复制代码
$ ollama cp deepseek-r1:1.5b my-model

多模态模型

bash 复制代码
$ ollama run llava "这张图片中有什么? ~/people.png"

2. 客户端连接服务器

服务器运行:

bash 复制代码
$ curl http://localhost:11434/api/generate -d '{"model":"deepseek-r1:1.5b"}'
{"model":"deepseek-r1:1.5b","created_at":"2025-08-09T11:20:03.676711152Z","response":"","done":true,"done_reason":"load"}

客户端运行:

bash 复制代码
$ curl http://49.51.197.197:11434/api/generate -d '{"model":"deepseek-r1:1.5b"}'
curl: (7) Failed to connect to 49.51.197.197 port 11434 after 277 ms: Couldn't connect to server

报错

2.1 解决错误

  1. 先检查网络连接
bash 复制代码
$ ping -c 4 49.51.197.197
PING 49.51.197.197 (49.51.197.197) 56(84) bytes of data.
64 bytes from 49.51.197.197: icmp_seq=1 ttl=44 time=304 ms
64 bytes from 49.51.197.197: icmp_seq=2 ttl=44 time=301 ms
64 bytes from 49.51.197.197: icmp_seq=3 ttl=44 time=289 ms
64 bytes from 49.51.197.197: icmp_seq=4 ttl=44 time=280 ms

--- 49.51.197.197 ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3004ms
rtt min/avg/max/mdev = 280.205/293.788/304.213/9.659 ms
  1. 防火墙放开 11434 端口
  2. 端口监听
bash 复制代码
$ netstat -tuln | grep 11434
tcp        0      0 127.0.0.1:11434         0.0.0.0:*               LISTEN     

显示 127.0.0.1:11434:服务仅限本机(服务器)访问,需修改配置

  1. 查看配置:
bash 复制代码
$ sudo systemctl cat ollama.service
# /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
[Install]
WantedBy=default.target
  1. 修改配置
bash 复制代码
 $ sudo vi /etc/systemd/system/ollama.service

添加:

bash 复制代码
Environment="OLLAMA_HOST=0.0.0.0"  # 新增监听地址
  1. 重新启动
bash 复制代码
$ sudo systemctl daemon-reload
$ sudo systemctl restart ollama   
  1. 查看配置
bash 复制代码
$ sudo systemctl cat ollama.service
# /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_HOST=0.0.0.0"
[Install]
WantedBy=default.target
$ netstat -tuln | grep 11434
tcp6       0      0 :::11434                :::*                    LISTEN  
  1. 客户端查看
bash 复制代码
$ curl http://49.51.197.197:11434/api/generate -d '{"model":"deepseek-r1:1.5b"}'
{"model":"deepseek-r1:1.5b","created_at":"2025-08-09T13:54:49.560955998Z","response":"","done":true,"done_reason":"load"}

查找正确

  1. 代码验证
python 复制代码
import os
from openai import OpenAI


# 初始化 OpenAI 客户端
client = OpenAI(
    api_key="ollama",
    base_url="http://49.51.197.197:11434/v1",  
)


response = client.chat.completions.create(
        model="deepseek-r1:1.5b",
        messages=[{'role': 'user', 'content':  '9.9 和 9.11 谁大'}]
        
    )

print(" 最终答案:")
print(response.choices[0].message.content)

输出结果:

python 复制代码
 最终答案:
<think>

</think>

首先,我们要比较两个数的大小:**9.9**和**9.11**。

1. **统一小数位数**
   - 将这两个数都转换为小数点后两位:
     - **9.9** 可以写成 **9.90**。
     - **9.11** 已经是两个小数位数,可以保持不变。

2. **逐位比较**
   - 比较**个位数字:** 都是**9**,相等。
   - 比较**十分位:**
     - 9.90 的十分位是**9**,9.11 的十分位也是**1**。
     - **9 > 1**,所以9.90 大于9.11。

3. **结论**
   - 因为在十分位上,9.90 比9.11大,因此**9.9 大于9.11**。

总结:\boxed{9.9 \text{ 更大}}
相关推荐
喜欢你,还有大家17 小时前
Docker-仓库-镜像制作
运维·docker·容器
lpfasd12317 小时前
git-团队协作基础
chrome·git·elasticsearch
安审若无18 小时前
图数据库neoj4安装部署使用
linux·运维·数据库
做运维的阿瑞18 小时前
CentOS DNS故障排查完整解决方案:从症状到根因的系统化诊断
linux·运维·centos
深圳市恒讯科技19 小时前
英国服务器Windows系统远程桌面安装与优化
运维·服务器·windows
itachi-uchiha19 小时前
head和tail命令使用
linux·运维·服务器
violet-lz19 小时前
Socket编程实战:从基础API到多线程服务器
运维·服务器
初学者_xuan20 小时前
零基础新手小白快速了解掌握服务集群与自动化运维(十六)集群部署模块——LVS-DR&TUN模式配置
运维·自动化·lvs
toooooop820 小时前
Nginx 反向代理 HTTPS CDN 配置检查清单(避坑版)
运维·nginx·https·cdn
群联云防护小杜20 小时前
国产化环境下 Web 应用如何满足等保 2.0?从 Nginx 配置到 AI 防护实战
运维·前端·nginx